Personalized cancer diagnosis

1. Business Problem

1.1. Description

Source: https://www.kaggle.com/c/msk-redefining-cancer-treatment/

Data: Memorial Sloan Kettering Cancer Center (MSKCC)

Download training_variants.zip and training_text.zip from Kaggle.

Context:

Source: https://www.kaggle.com/c/msk-redefining-cancer-treatment/discussion/35336#198462

Problem statement :

Classify the given genetic variations/mutations based on evidence from text-based clinical literature.

1.2. Source/Useful Links

Some articles and reference blogs about the problem statement

1.3. Real-world/Business objectives and constraints.

  • No low-latency requirement.
  • Interpretability is important.
  • Errors can be very costly.
  • Probability of a data-point belonging to each class is needed.

2. Machine Learning Problem Formulation

2.1. Data

2.1.1. Data Overview

  • Source: https://www.kaggle.com/c/msk-redefining-cancer-treatment/data
  • We have two data files: one conatins the information about the genetic mutations and the other contains the clinical evidence (text) that human experts/pathologists use to classify the genetic mutations.
  • Both these data files are have a common column called ID
  • Data file's information:

    • training_variants (ID , Gene, Variations, Class)
    • training_text (ID, Text)

2.1.2. Example Data Point

training_variants


ID,Gene,Variation,Class
0,FAM58A,Truncating Mutations,1
1,CBL,W802*,2
2,CBL,Q249E,2
...

training_text


ID,Text
0||Cyclin-dependent kinases (CDKs) regulate a variety of fundamental cellular processes. CDK10 stands out as one of the last orphan CDKs for which no activating cyclin has been identified and no kinase activity revealed. Previous work has shown that CDK10 silencing increases ETS2 (v-ets erythroblastosis virus E26 oncogene homolog 2)-driven activation of the MAPK pathway, which confers tamoxifen resistance to breast cancer cells. The precise mechanisms by which CDK10 modulates ETS2 activity, and more generally the functions of CDK10, remain elusive. Here we demonstrate that CDK10 is a cyclin-dependent kinase by identifying cyclin M as an activating cyclin. Cyclin M, an orphan cyclin, is the product of FAM58A, whose mutations cause STAR syndrome, a human developmental anomaly whose features include toe syndactyly, telecanthus, and anogenital and renal malformations. We show that STAR syndrome-associated cyclin M mutants are unable to interact with CDK10. Cyclin M silencing phenocopies CDK10 silencing in increasing c-Raf and in conferring tamoxifen resistance to breast cancer cells. CDK10/cyclin M phosphorylates ETS2 in vitro, and in cells it positively controls ETS2 degradation by the proteasome. ETS2 protein levels are increased in cells derived from a STAR patient, and this increase is attributable to decreased cyclin M levels. Altogether, our results reveal an additional regulatory mechanism for ETS2, which plays key roles in cancer and development. They also shed light on the molecular mechanisms underlying STAR syndrome.Cyclin-dependent kinases (CDKs) play a pivotal role in the control of a number of fundamental cellular processes (1). The human genome contains 21 genes encoding proteins that can be considered as members of the CDK family owing to their sequence similarity with bona fide CDKs, those known to be activated by cyclins (2). Although discovered almost 20 y ago (3, 4), CDK10 remains one of the two CDKs without an identified cyclin partner. This knowledge gap has largely impeded the exploration of its biological functions. CDK10 can act as a positive cell cycle regulator in some cells (5, 6) or as a tumor suppressor in others (7, 8). CDK10 interacts with the ETS2 (v-ets erythroblastosis virus E26 oncogene homolog 2) transcription factor and inhibits its transcriptional activity through an unknown mechanism (9). CDK10 knockdown derepresses ETS2, which increases the expression of the c-Raf protein kinase, activates the MAPK pathway, and induces resistance of MCF7 cells to tamoxifen (6). ...

2.2. Mapping the real-world problem to an ML problem

2.2.1. Type of Machine Learning Problem

There are nine different classes a genetic mutation can be classified into => Multi class classification problem

2.2.2. Performance Metric

Source: https://www.kaggle.com/c/msk-redefining-cancer-treatment#evaluation

Metric(s):

  • Multi class log-loss
  • Confusion matrix

2.2.3. Machine Learing Objectives and Constraints

Objective: Predict the probability of each data-point belonging to each of the nine classes.

Constraints:

  • Interpretability
  • Class probabilities are needed.
  • Penalize the errors in class probabilites => Metric is Log-loss.
  • No Latency constraints.

2.3. Train, CV and Test Datasets

Split the dataset randomly into three parts train, cross validation and test with 64%,16%, 20% of data respectively

-------------------------------------------------TASK1-----------------------------------------------------

3. Exploratory Data Analysis

In [1]:
import pandas as pd
import matplotlib.pyplot as plt
import re
import time
import warnings
import numpy as np
from nltk.corpus import stopwords
from sklearn.decomposition import TruncatedSVD
from sklearn.preprocessing import normalize
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.manifold import TSNE
import seaborn as sns
from sklearn.neighbors import KNeighborsClassifier
from sklearn.metrics import confusion_matrix
from sklearn.metrics.classification import accuracy_score, log_loss
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.linear_model import SGDClassifier

from collections import Counter
from sklearn.datasets import make_classification
from imblearn.over_sampling import SMOTE


from imblearn.over_sampling import SMOTE
from collections import Counter
from scipy.sparse import hstack
from sklearn.multiclass import OneVsRestClassifier
from sklearn.svm import SVC

from sklearn.model_selection import StratifiedKFold


from collections import Counter, defaultdict
from sklearn.calibration import CalibratedClassifierCV
from sklearn.naive_bayes import MultinomialNB
from sklearn.naive_bayes import GaussianNB
from sklearn.model_selection import train_test_split
from sklearn.model_selection import GridSearchCV
import math
from sklearn.metrics import normalized_mutual_info_score
from sklearn.ensemble import RandomForestClassifier

from sklearn.datasets import make_classification
warnings.filterwarnings("ignore")

from mlxtend.classifier import StackingClassifier

from sklearn import model_selection
from sklearn.linear_model import LogisticRegression

3.1. Reading Data

3.1.1. Reading Gene and Variation Data

In [2]:
data = pd.read_csv('training_variants')
print('Number of data points : ', data.shape[0])
print('Number of features : ', data.shape[1])
print('Features : ', data.columns.values)
data.head()
Number of data points :  3321
Number of features :  4
Features :  ['ID' 'Gene' 'Variation' 'Class']
Out[2]:
ID Gene Variation Class
0 0 FAM58A Truncating Mutations 1
1 1 CBL W802* 2
2 2 CBL Q249E 2
3 3 CBL N454D 3
4 4 CBL L399V 4

training/training_variants is a comma separated file containing the description of the genetic mutations used for training.
Fields are

  • ID : the id of the row used to link the mutation to the clinical evidence
  • Gene : the gene where this genetic mutation is located
  • Variation : the aminoacid change for this mutations
  • Class : 1-9 the class this genetic mutation has been classified on

3.1.2. Reading Text Data

In [3]:
# note the seprator in this file
data_text =pd.read_csv("training_text",sep="\|\|",engine="python",names=["ID","TEXT"],skiprows=1)
print('Number of data points : ', data_text.shape[0])
print('Number of features : ', data_text.shape[1])
print('Features : ', data_text.columns.values)
data_text.head()
Number of data points :  3321
Number of features :  2
Features :  ['ID' 'TEXT']
Out[3]:
ID TEXT
0 0 Cyclin-dependent kinases (CDKs) regulate a var...
1 1 Abstract Background Non-small cell lung canc...
2 2 Abstract Background Non-small cell lung canc...
3 3 Recent evidence has demonstrated that acquired...
4 4 Oncogenic mutations in the monomeric Casitas B...

3.1.3. Preprocessing of text

In [61]:
# loading stop words from nltk library
stop_words = set(stopwords.words('english'))


def nlp_preprocessing(total_text, index, column):
    if type(total_text) is not int:
        string = ""
        # replace every special char with space
        total_text = re.sub('[^a-zA-Z0-9\n]', ' ', total_text)
        # replace multiple spaces with single space
        total_text = re.sub('\s+',' ', total_text)
        # converting all the chars into lower-case.
        total_text = total_text.lower()
        
        for word in total_text.split():
        # if the word is a not a stop word then retain that word from the data
            if not word in stop_words:
                string += word + " "
        
        data_text[column][index] = string
In [5]:
#text processing stage.
start_time = time.clock()
for index, row in data_text.iterrows():
    if type(row['TEXT']) is str:
        nlp_preprocessing(row['TEXT'], index, 'TEXT')
    else:
        print("there is no text description for id:",index)
print('Time took for preprocessing the text :',time.clock() - start_time, "seconds")
there is no text description for id: 1109
there is no text description for id: 1277
there is no text description for id: 1407
there is no text description for id: 1639
there is no text description for id: 2755
Time took for preprocessing the text : 183.7006506518798 seconds
In [6]:
#merging both gene_variations and text data based on ID
result = pd.merge(data, data_text,on='ID', how='left')
result.head()
Out[6]:
ID Gene Variation Class TEXT
0 0 FAM58A Truncating Mutations 1 cyclin dependent kinases cdks regulate variety...
1 1 CBL W802* 2 abstract background non small cell lung cancer...
2 2 CBL Q249E 2 abstract background non small cell lung cancer...
3 3 CBL N454D 3 recent evidence demonstrated acquired uniparen...
4 4 CBL L399V 4 oncogenic mutations monomeric casitas b lineag...
In [7]:
result[result.isnull().any(axis=1)]
Out[7]:
ID Gene Variation Class TEXT
1109 1109 FANCA S1088F 1 NaN
1277 1277 ARID5B Truncating Mutations 1 NaN
1407 1407 FGFR3 K508M 6 NaN
1639 1639 FLT1 Amplification 6 NaN
2755 2755 BRAF G596C 7 NaN
In [8]:
result.loc[result['TEXT'].isnull(),'TEXT'] = result['Gene'] +' '+result['Variation']
In [9]:
result[result['ID']==1109]
Out[9]:
ID Gene Variation Class TEXT
1109 1109 FANCA S1088F 1 FANCA S1088F

3.1.4. Test, Train and Cross Validation Split

3.1.4.1. Splitting data into train, test and cross validation (64:20:16)

In [10]:
y_true = result['Class'].values
result.Gene      = result.Gene.str.replace('\s+', '_')
result.Variation = result.Variation.str.replace('\s+', '_')

# split the data into test and train by maintaining same distribution of output varaible 'y_true' [stratify=y_true]
X_train, test_df, y_train, y_test = train_test_split(result, y_true, stratify=y_true, test_size=0.2)
# split the train data into train and cross validation by maintaining same distribution of output varaible 'y_train' [stratify=y_train]
train_df, cv_df, y_train, y_cv = train_test_split(X_train, y_train, stratify=y_train, test_size=0.2)

We split the data into train, test and cross validation data sets, preserving the ratio of class distribution in the original data set

In [11]:
print('Number of data points in train data:', train_df.shape[0])
print('Number of data points in test data:', test_df.shape[0])
print('Number of data points in cross validation data:', cv_df.shape[0])
Number of data points in train data: 2124
Number of data points in test data: 665
Number of data points in cross validation data: 532

3.1.4.2. Distribution of y_i's in Train, Test and Cross Validation datasets

In [12]:
# it returns a dict, keys as class labels and values as the number of data points in that class
train_class_distribution = train_df['Class'].value_counts().sortlevel()
test_class_distribution = test_df['Class'].value_counts().sortlevel()
cv_class_distribution = cv_df['Class'].value_counts().sortlevel()

my_colors = 'rgbkymc'
train_class_distribution.plot(kind='bar')
plt.xlabel('Class')
plt.ylabel('Data points per Class')
plt.title('Distribution of yi in train data')
plt.grid()
plt.show()

# ref: argsort https://docs.scipy.org/doc/numpy/reference/generated/numpy.argsort.html
# -(train_class_distribution.values): the minus sign will give us in decreasing order
sorted_yi = np.argsort(-train_class_distribution.values)
for i in sorted_yi:
    print('Number of data points in class', i+1, ':',train_class_distribution.values[i], '(', np.round((train_class_distribution.values[i]/train_df.shape[0]*100), 3), '%)')

    
print('-'*80)
my_colors = 'rgbkymc'
test_class_distribution.plot(kind='bar')
plt.xlabel('Class')
plt.ylabel('Data points per Class')
plt.title('Distribution of yi in test data')
plt.grid()
plt.show()

# ref: argsort https://docs.scipy.org/doc/numpy/reference/generated/numpy.argsort.html
# -(train_class_distribution.values): the minus sign will give us in decreasing order
sorted_yi = np.argsort(-test_class_distribution.values)
for i in sorted_yi:
    print('Number of data points in class', i+1, ':',test_class_distribution.values[i], '(', np.round((test_class_distribution.values[i]/test_df.shape[0]*100), 3), '%)')

print('-'*80)
my_colors = 'rgbkymc'
cv_class_distribution.plot(kind='bar')
plt.xlabel('Class')
plt.ylabel('Data points per Class')
plt.title('Distribution of yi in cross validation data')
plt.grid()
plt.show()

# ref: argsort https://docs.scipy.org/doc/numpy/reference/generated/numpy.argsort.html
# -(train_class_distribution.values): the minus sign will give us in decreasing order
sorted_yi = np.argsort(-train_class_distribution.values)
for i in sorted_yi:
    print('Number of data points in class', i+1, ':',cv_class_distribution.values[i], '(', np.round((cv_class_distribution.values[i]/cv_df.shape[0]*100), 3), '%)')
Number of data points in class 7 : 609 ( 28.672 %)
Number of data points in class 4 : 439 ( 20.669 %)
Number of data points in class 1 : 363 ( 17.09 %)
Number of data points in class 2 : 289 ( 13.606 %)
Number of data points in class 6 : 176 ( 8.286 %)
Number of data points in class 5 : 155 ( 7.298 %)
Number of data points in class 3 : 57 ( 2.684 %)
Number of data points in class 9 : 24 ( 1.13 %)
Number of data points in class 8 : 12 ( 0.565 %)
--------------------------------------------------------------------------------
Number of data points in class 7 : 191 ( 28.722 %)
Number of data points in class 4 : 137 ( 20.602 %)
Number of data points in class 1 : 114 ( 17.143 %)
Number of data points in class 2 : 91 ( 13.684 %)
Number of data points in class 6 : 55 ( 8.271 %)
Number of data points in class 5 : 48 ( 7.218 %)
Number of data points in class 3 : 18 ( 2.707 %)
Number of data points in class 9 : 7 ( 1.053 %)
Number of data points in class 8 : 4 ( 0.602 %)
--------------------------------------------------------------------------------
Number of data points in class 7 : 153 ( 28.759 %)
Number of data points in class 4 : 110 ( 20.677 %)
Number of data points in class 1 : 91 ( 17.105 %)
Number of data points in class 2 : 72 ( 13.534 %)
Number of data points in class 6 : 44 ( 8.271 %)
Number of data points in class 5 : 39 ( 7.331 %)
Number of data points in class 3 : 14 ( 2.632 %)
Number of data points in class 9 : 6 ( 1.128 %)
Number of data points in class 8 : 3 ( 0.564 %)

3.2 Prediction using a 'Random' Model

In a 'Random' Model, we generate the NINE class probabilites randomly such that they sum to 1.

In [62]:
# This function plots the confusion matrices given y_i, y_i_hat.
def plot_confusion_matrix(test_y, predict_y):
    C = confusion_matrix(test_y, predict_y)
    # C = 9,9 matrix, each cell (i,j) represents number of points of class i are predicted class j
    
    A =(((C.T)/(C.sum(axis=1))).T)
    #divid each element of the confusion matrix with the sum of elements in that column
    
    # C = [[1, 2],
    #     [3, 4]]
    # C.T = [[1, 3],
    #        [2, 4]]
    # C.sum(axis = 1)  axis=0 corresonds to columns and axis=1 corresponds to rows in two diamensional array
    # C.sum(axix =1) = [[3, 7]]
    # ((C.T)/(C.sum(axis=1))) = [[1/3, 3/7]
    #                           [2/3, 4/7]]

    # ((C.T)/(C.sum(axis=1))).T = [[1/3, 2/3]
    #                           [3/7, 4/7]]
    # sum of row elements = 1
    
    B =(C/C.sum(axis=0))
    #divid each element of the confusion matrix with the sum of elements in that row
    # C = [[1, 2],
    #     [3, 4]]
    # C.sum(axis = 0)  axis=0 corresonds to columns and axis=1 corresponds to rows in two diamensional array
    # C.sum(axix =0) = [[4, 6]]
    # (C/C.sum(axis=0)) = [[1/4, 2/6],
    #                      [3/4, 4/6]] 
    
    labels = [1,2,3,4,5,6,7,8,9]
    # representing A in heatmap format
    print("-"*20, "Confusion matrix", "-"*20)
    plt.figure(figsize=(20,7))
    sns.heatmap(C, annot=True, cmap="YlGnBu", fmt=".3f", xticklabels=labels, yticklabels=labels)
    plt.xlabel('Predicted Class')
    plt.ylabel('Original Class')
    plt.show()

    print("-"*20, "Precision matrix (Columm Sum=1)", "-"*20)
    plt.figure(figsize=(20,7))
    sns.heatmap(B, annot=True, cmap="YlGnBu", fmt=".3f", xticklabels=labels, yticklabels=labels)
    plt.xlabel('Predicted Class')
    plt.ylabel('Original Class')
    plt.show()
    
    # representing B in heatmap format
    print("-"*20, "Recall matrix (Row sum=1)", "-"*20)
    plt.figure(figsize=(20,7))
    sns.heatmap(A, annot=True, cmap="YlGnBu", fmt=".3f", xticklabels=labels, yticklabels=labels)
    plt.xlabel('Predicted Class')
    plt.ylabel('Original Class')
    plt.show()
In [212]:
# we need to generate 9 numbers and the sum of numbers should be 1
# one solution is to genarate 9 numbers and divide each of the numbers by their sum
# ref: https://stackoverflow.com/a/18662466/4084039
test_data_len = test_df.shape[0]
cv_data_len = cv_df.shape[0]

# we create a output array that has exactly same size as the CV data
cv_predicted_y = np.zeros((cv_data_len,9))
for i in range(cv_data_len):
    rand_probs = np.random.rand(1,9)
    cv_predicted_y[i] = ((rand_probs/sum(sum(rand_probs)))[0])
print("Log loss on Cross Validation Data using Random Model",log_loss(y_cv,cv_predicted_y, eps=1e-15))


# Test-Set error.
#we create a output array that has exactly same as the test data
test_predicted_y = np.zeros((test_data_len,9))
for i in range(test_data_len):
    rand_probs = np.random.rand(1,9)
    test_predicted_y[i] = ((rand_probs/sum(sum(rand_probs)))[0])
print("Log loss on Test Data using Random Model",log_loss(y_test,test_predicted_y, eps=1e-15))

predicted_y =np.argmax(test_predicted_y, axis=1)
plot_confusion_matrix(y_test, predicted_y+1)
Log loss on Cross Validation Data using Random Model 2.4927691664034706
Log loss on Test Data using Random Model 2.4454599772229146
-------------------- Confusion matrix --------------------
-------------------- Precision matrix (Columm Sum=1) --------------------
-------------------- Recall matrix (Row sum=1) --------------------

3.3 Univariate Analysis

In [13]:
# code for response coding with Laplace smoothing.
# alpha : used for laplace smoothing
# feature: ['gene', 'variation']
# df: ['train_df', 'test_df', 'cv_df']
# algorithm
# ----------
# Consider all unique values and the number of occurances of given feature in train data dataframe
# build a vector (1*9) , the first element = (number of times it occured in class1 + 10*alpha / number of time it occurred in total data+90*alpha)
# gv_dict is like a look up table, for every gene it store a (1*9) representation of it
# for a value of feature in df:
# if it is in train data:
# we add the vector that was stored in 'gv_dict' look up table to 'gv_fea'
# if it is not there is train:
# we add [1/9, 1/9, 1/9, 1/9,1/9, 1/9, 1/9, 1/9, 1/9] to 'gv_fea'
# return 'gv_fea'
# ----------------------

# get_gv_fea_dict: Get Gene varaition Feature Dict
def get_gv_fea_dict(alpha, feature, df):
    # value_count: it contains a dict like
    # print(train_df['Gene'].value_counts())
    # output:
    #        {BRCA1      174
    #         TP53       106
    #         EGFR        86
    #         BRCA2       75
    #         PTEN        69
    #         KIT         61
    #         BRAF        60
    #         ERBB2       47
    #         PDGFRA      46
    #         ...}
    # print(train_df['Variation'].value_counts())
    # output:
    # {
    # Truncating_Mutations                     63
    # Deletion                                 43
    # Amplification                            43
    # Fusions                                  22
    # Overexpression                            3
    # E17K                                      3
    # Q61L                                      3
    # S222D                                     2
    # P130S                                     2
    # ...
    # }
    value_count = train_df[feature].value_counts()
    
    # gv_dict : Gene Variation Dict, which contains the probability array for each gene/variation
    gv_dict = dict()
    
    # denominator will contain the number of time that particular feature occured in whole data
    for i, denominator in value_count.items():
        # vec will contain (p(yi==1/Gi) probability of gene/variation belongs to perticular class
        # vec is 9 diamensional vector
        vec = []
        for k in range(1,10):
            # print(train_df.loc[(train_df['Class']==1) & (train_df['Gene']=='BRCA1')])
            #         ID   Gene             Variation  Class  
            # 2470  2470  BRCA1                S1715C      1   
            # 2486  2486  BRCA1                S1841R      1   
            # 2614  2614  BRCA1                   M1R      1   
            # 2432  2432  BRCA1                L1657P      1   
            # 2567  2567  BRCA1                T1685A      1   
            # 2583  2583  BRCA1                E1660G      1   
            # 2634  2634  BRCA1                W1718L      1   
            # cls_cnt.shape[0] will return the number of rows

            cls_cnt = train_df.loc[(train_df['Class']==k) & (train_df[feature]==i)]
            
            # cls_cnt.shape[0](numerator) will contain the number of time that particular feature occured in whole data
            vec.append((cls_cnt.shape[0] + alpha*10)/ (denominator + 90*alpha))

        # we are adding the gene/variation to the dict as key and vec as value
        gv_dict[i]=vec
    return gv_dict

# Get Gene variation feature
def get_gv_feature(alpha, feature, df):
    # print(gv_dict)
    #     {'BRCA1': [0.20075757575757575, 0.03787878787878788, 0.068181818181818177, 0.13636363636363635, 0.25, 0.19318181818181818, 0.03787878787878788, 0.03787878787878788, 0.03787878787878788], 
    #      'TP53': [0.32142857142857145, 0.061224489795918366, 0.061224489795918366, 0.27040816326530615, 0.061224489795918366, 0.066326530612244902, 0.051020408163265307, 0.051020408163265307, 0.056122448979591837], 
    #      'EGFR': [0.056818181818181816, 0.21590909090909091, 0.0625, 0.068181818181818177, 0.068181818181818177, 0.0625, 0.34659090909090912, 0.0625, 0.056818181818181816], 
    #      'BRCA2': [0.13333333333333333, 0.060606060606060608, 0.060606060606060608, 0.078787878787878782, 0.1393939393939394, 0.34545454545454546, 0.060606060606060608, 0.060606060606060608, 0.060606060606060608], 
    #      'PTEN': [0.069182389937106917, 0.062893081761006289, 0.069182389937106917, 0.46540880503144655, 0.075471698113207544, 0.062893081761006289, 0.069182389937106917, 0.062893081761006289, 0.062893081761006289], 
    #      'KIT': [0.066225165562913912, 0.25165562913907286, 0.072847682119205295, 0.072847682119205295, 0.066225165562913912, 0.066225165562913912, 0.27152317880794702, 0.066225165562913912, 0.066225165562913912], 
    #      'BRAF': [0.066666666666666666, 0.17999999999999999, 0.073333333333333334, 0.073333333333333334, 0.093333333333333338, 0.080000000000000002, 0.29999999999999999, 0.066666666666666666, 0.066666666666666666],
    #      ...
    #     }
    gv_dict = get_gv_fea_dict(alpha, feature, df)
    # value_count is similar in get_gv_fea_dict
    value_count = train_df[feature].value_counts()
    
    # gv_fea: Gene_variation feature, it will contain the feature for each feature value in the data
    gv_fea = []
    # for every feature values in the given data frame we will check if it is there in the train data then we will add the feature to gv_fea
    # if not we will add [1/9,1/9,1/9,1/9,1/9,1/9,1/9,1/9,1/9] to gv_fea
    for index, row in df.iterrows():
        if row[feature] in dict(value_count).keys():
            gv_fea.append(gv_dict[row[feature]])
        else:
            gv_fea.append([1/9,1/9,1/9,1/9,1/9,1/9,1/9,1/9,1/9])
#             gv_fea.append([-1,-1,-1,-1,-1,-1,-1,-1,-1])
    return gv_fea

when we caculate the probability of a feature belongs to any particular class, we apply laplace smoothing

  • (numerator + 10\*alpha) / (denominator + 90\*alpha)
  • 3.2.1 Univariate Analysis on Gene Feature

    Q1. Gene, What type of feature it is ?

    Ans. Gene is a categorical variable

    Q2. How many categories are there and How they are distributed?

    In [14]:
    unique_genes = train_df['Gene'].value_counts()
    print('Number of Unique Genes :', unique_genes.shape[0])
    # the top 10 genes that occured most
    print(unique_genes.head(10))
    
    Number of Unique Genes : 242
    BRCA1     168
    TP53      110
    EGFR       96
    BRCA2      83
    PTEN       77
    BRAF       65
    KIT        63
    ERBB2      47
    ALK        43
    PDGFRA     41
    Name: Gene, dtype: int64
    
    In [15]:
    print("Ans: There are", unique_genes.shape[0] ,"different categories of genes in the train data, and they are distibuted as follows",)
    
    Ans: There are 242 different categories of genes in the train data, and they are distibuted as follows
    
    In [16]:
    s = sum(unique_genes.values);
    h = unique_genes.values/s;
    plt.plot(h, label="Histrogram of Genes")
    plt.xlabel('Index of a Gene')
    plt.ylabel('Number of Occurances')
    plt.legend()
    plt.grid()
    plt.show()
    
    In [17]:
    c = np.cumsum(h)
    plt.plot(c,label='Cumulative distribution of Genes')
    plt.grid()
    plt.legend()
    plt.show()
    

    Q3. How to featurize this Gene feature ?

    Ans.there are two ways we can featurize this variable check out this video: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/handling-categorical-and-numerical-features/

    1. One hot Encoding
    2. Response coding

    We will choose the appropriate featurization based on the ML model we use. For this problem of multi-class classification with categorical features, one-hot encoding is better for Logistic regression while response coding is better for Random Forests.

    In [18]:
    #response-coding of the Gene feature
    # alpha is used for laplace smoothing
    alpha = 1
    # train gene feature
    train_gene_feature_responseCoding = np.array(get_gv_feature(alpha, "Gene", train_df))
    # test gene feature
    test_gene_feature_responseCoding = np.array(get_gv_feature(alpha, "Gene", test_df))
    # cross validation gene feature
    cv_gene_feature_responseCoding = np.array(get_gv_feature(alpha, "Gene", cv_df))
    
    In [19]:
    print("train_gene_feature_responseCoding is converted feature using respone coding method. The shape of gene feature:", train_gene_feature_responseCoding.shape)
    
    train_gene_feature_responseCoding is converted feature using respone coding method. The shape of gene feature: (2124, 9)
    
    In [22]:
    # Tfidf encoding of Gene feature.
    gene_vectorizer = TfidfVectorizer()
    train_gene_feature_onehotCoding = gene_vectorizer.fit_transform(train_df['Gene'])
    test_gene_feature_onehotCoding = gene_vectorizer.transform(test_df['Gene'])
    cv_gene_feature_onehotCoding = gene_vectorizer.transform(cv_df['Gene'])
    
    In [23]:
    train_df['Gene'].head()
    
    Out[23]:
    377      TP53
    2107      B2M
    1726      APC
    2301     JAK1
    45      PTPRT
    Name: Gene, dtype: object
    In [24]:
    gene_vectorizer.get_feature_names()
    
    Out[24]:
    ['abl1',
     'acvr1',
     'ago2',
     'akt1',
     'akt2',
     'akt3',
     'alk',
     'apc',
     'ar',
     'araf',
     'arid1b',
     'arid2',
     'arid5b',
     'asxl1',
     'asxl2',
     'atm',
     'atr',
     'atrx',
     'aurka',
     'aurkb',
     'axin1',
     'b2m',
     'bap1',
     'bard1',
     'bcl10',
     'bcl2l11',
     'bcor',
     'braf',
     'brca1',
     'brca2',
     'brd4',
     'brip1',
     'btk',
     'card11',
     'carm1',
     'casp8',
     'cbl',
     'ccnd1',
     'ccnd3',
     'ccne1',
     'cdh1',
     'cdk12',
     'cdk4',
     'cdk6',
     'cdkn1a',
     'cdkn1b',
     'cdkn2a',
     'cdkn2b',
     'cebpa',
     'chek2',
     'cic',
     'crebbp',
     'ctcf',
     'ctla4',
     'ctnnb1',
     'ddr2',
     'dicer1',
     'dnmt3a',
     'dusp4',
     'egfr',
     'eif1ax',
     'elf3',
     'ep300',
     'epas1',
     'erbb2',
     'erbb3',
     'erbb4',
     'ercc2',
     'ercc3',
     'ercc4',
     'erg',
     'esr1',
     'etv1',
     'etv6',
     'ewsr1',
     'ezh2',
     'fam58a',
     'fanca',
     'fancc',
     'fat1',
     'fbxw7',
     'fgf19',
     'fgf3',
     'fgfr1',
     'fgfr2',
     'fgfr3',
     'fgfr4',
     'flt1',
     'flt3',
     'foxa1',
     'foxl2',
     'foxp1',
     'fubp1',
     'gata3',
     'gli1',
     'gna11',
     'gnas',
     'h3f3a',
     'hla',
     'hnf1a',
     'hras',
     'idh1',
     'idh2',
     'igf1r',
     'ikbke',
     'ikzf1',
     'il7r',
     'jak1',
     'jak2',
     'jun',
     'kdm5a',
     'kdm5c',
     'kdr',
     'keap1',
     'kit',
     'klf4',
     'kmt2a',
     'kmt2b',
     'kmt2c',
     'kmt2d',
     'knstrn',
     'kras',
     'lats1',
     'lats2',
     'map2k1',
     'map2k2',
     'map2k4',
     'map3k1',
     'mapk1',
     'mdm2',
     'mdm4',
     'med12',
     'mef2b',
     'men1',
     'met',
     'mga',
     'mlh1',
     'mpl',
     'msh2',
     'msh6',
     'mtor',
     'myc',
     'mycn',
     'myd88',
     'myod1',
     'ncor1',
     'nf1',
     'nf2',
     'nfe2l2',
     'nfkbia',
     'nkx2',
     'notch1',
     'notch2',
     'npm1',
     'nras',
     'nsd1',
     'ntrk1',
     'ntrk2',
     'ntrk3',
     'nup93',
     'pbrm1',
     'pdgfra',
     'pdgfrb',
     'pik3ca',
     'pik3cb',
     'pik3cd',
     'pik3r1',
     'pik3r2',
     'pim1',
     'pms2',
     'pole',
     'ppm1d',
     'ppp2r1a',
     'ppp6c',
     'prdm1',
     'ptch1',
     'pten',
     'ptpn11',
     'ptprd',
     'ptprt',
     'rac1',
     'rad21',
     'rad50',
     'rad51b',
     'rad54l',
     'raf1',
     'rara',
     'rasa1',
     'rb1',
     'rbm10',
     'ret',
     'rheb',
     'rhoa',
     'rictor',
     'rit1',
     'ros1',
     'rras2',
     'runx1',
     'rxra',
     'sdhb',
     'sdhc',
     'setd2',
     'sf3b1',
     'shoc2',
     'smad2',
     'smad3',
     'smad4',
     'smarca4',
     'smarcb1',
     'smo',
     'sos1',
     'sox9',
     'spop',
     'src',
     'srsf2',
     'stag2',
     'stat3',
     'stk11',
     'tcf3',
     'tert',
     'tet1',
     'tet2',
     'tgfbr1',
     'tgfbr2',
     'tmprss2',
     'tp53',
     'tp53bp1',
     'tsc1',
     'tsc2',
     'u2af1',
     'vegfa',
     'vhl',
     'whsc1',
     'whsc1l1',
     'xpo1',
     'yap1']
    In [180]:
    print("train_gene_feature_Tfidf is converted feature using Tfidf encoding method. The shape of gene feature:", train_gene_feature_onehotCoding.shape)
    
    train_gene_feature_Tfidf is converted feature using Tfidf encoding method. The shape of gene feature: (2124, 235)
    

    Q4. How good is this gene feature in predicting y_i?

    There are many ways to estimate how good a feature is, in predicting y_i. One of the good methods is to build a proper ML model using just this feature. In this case, we will build a logistic regression model using only Gene feature (Tfidf encoded) to predict y_i.
    In [224]:
    alpha = [10 ** x for x in range(-5, 1)] # hyperparam for SGD classifier.
    
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    
    cv_log_error_array=[]
    for i in alpha:
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_gene_feature_onehotCoding, y_train)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_gene_feature_onehotCoding, y_train)
        predict_y = sig_clf.predict_proba(cv_gene_feature_onehotCoding)
        cv_log_error_array.append(log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
        print('For values of alpha = ', i, "The log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],np.round(txt,3)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_gene_feature_onehotCoding, y_train)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_gene_feature_onehotCoding, y_train)
    
    predict_y = sig_clf.predict_proba(train_gene_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_gene_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_gene_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    For values of alpha =  1e-05 The log loss is: 1.3861598177029062
    For values of alpha =  0.0001 The log loss is: 1.2190580013223984
    For values of alpha =  0.001 The log loss is: 1.2015839114085385
    For values of alpha =  0.01 The log loss is: 1.3100472458561074
    For values of alpha =  0.1 The log loss is: 1.4205837019572183
    For values of alpha =  1 The log loss is: 1.4588497615873561
    
    For values of best alpha =  0.001 The train log loss is: 1.093262843281969
    For values of best alpha =  0.001 The cross validation log loss is: 1.2015839114085385
    For values of best alpha =  0.001 The test log loss is: 1.1922270287097307
    

    Q5. Is the Gene feature stable across all the data sets (Test, Train, Cross validation)?

    Ans. Yes, it is. Otherwise, the CV and Test errors would be significantly more than train error.

    In [25]:
    print("Q6. How many data points in Test and CV datasets are covered by the ", unique_genes.shape[0], " genes in train dataset?")
    
    test_coverage=test_df[test_df['Gene'].isin(list(set(train_df['Gene'])))].shape[0]
    cv_coverage=cv_df[cv_df['Gene'].isin(list(set(train_df['Gene'])))].shape[0]
    
    print('Ans\n1. In test data',test_coverage, 'out of',test_df.shape[0], ":",(test_coverage/test_df.shape[0])*100)
    print('2. In cross validation data',cv_coverage, 'out of ',cv_df.shape[0],":" ,(cv_coverage/cv_df.shape[0])*100)
    
    Q6. How many data points in Test and CV datasets are covered by the  236  genes in train dataset?
    Ans
    1. In test data 644 out of 665 : 96.84210526315789
    2. In cross validation data 520 out of  532 : 97.74436090225564
    

    3.2.2 Univariate Analysis on Variation Feature

    Q7. Variation, What type of feature is it ?

    Ans. Variation is a categorical variable

    Q8. How many categories are there?

    In [23]:
    unique_variations = train_df['Variation'].value_counts()
    print('Number of Unique Variations :', unique_variations.shape[0])
    # the top 10 variations that occured most
    print(unique_variations.head(10))
    
    Number of Unique Variations : 1938
    Truncating_Mutations    55
    Deletion                48
    Amplification           46
    Fusions                 18
    G12V                     4
    Overexpression           4
    Q61H                     3
    Q61R                     3
    M1R                      2
    P34R                     2
    Name: Variation, dtype: int64
    
    In [24]:
    print("Ans: There are", unique_variations.shape[0] ,"different categories of variations in the train data, and they are distibuted as follows",)
    
    Ans: There are 1938 different categories of variations in the train data, and they are distibuted as follows
    
    In [179]:
    s = sum(unique_variations.values);
    h = unique_variations.values/s;
    plt.plot(h, label="Histrogram of Variations")
    plt.xlabel('Index of a Variation')
    plt.ylabel('Number of Occurances')
    plt.legend()
    plt.grid()
    plt.show()
    
    In [180]:
    c = np.cumsum(h)
    print(c)
    plt.plot(c,label='Cumulative distribution of Variations')
    plt.grid()
    plt.legend()
    plt.show()
    
    [0.03060264 0.05367232 0.07485876 ... 0.99905838 0.99952919 1.        ]
    

    Q9. How to featurize this Variation feature ?

    Ans.There are two ways we can featurize this variable check out this video: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/handling-categorical-and-numerical-features/

    1. One hot Encoding
    2. Response coding

    We will be using both these methods to featurize the Variation Feature

    In [25]:
    # alpha is used for laplace smoothing
    alpha = 1
    # train gene feature
    train_variation_feature_responseCoding = np.array(get_gv_feature(alpha, "Variation", train_df))
    # test gene feature
    test_variation_feature_responseCoding = np.array(get_gv_feature(alpha, "Variation", test_df))
    # cross validation gene feature
    cv_variation_feature_responseCoding = np.array(get_gv_feature(alpha, "Variation", cv_df))
    
    In [26]:
    print("train_variation_feature_responseCoding is a converted feature using the response coding method. The shape of Variation feature:", train_variation_feature_responseCoding.shape)
    
    train_variation_feature_responseCoding is a converted feature using the response coding method. The shape of Variation feature: (2124, 9)
    
    In [29]:
    # one-hot encoding of variation feature.
    variation_vectorizer = TfidfVectorizer()
    train_variation_feature_onehotCoding = variation_vectorizer.fit_transform(train_df['Variation'])
    test_variation_feature_onehotCoding = variation_vectorizer.transform(test_df['Variation'])
    cv_variation_feature_onehotCoding = variation_vectorizer.transform(cv_df['Variation'])
    
    In [30]:
    print("train_variation_feature_Tfidf is converted feature using the TfidfVectorizer encoding method. The shape of Variation feature:", train_variation_feature_onehotCoding.shape)
    
    train_variation_feature_Tfidf is converted feature using the TfidfVectorizer encoding method. The shape of Variation feature: (2124, 1949)
    

    Q10. How good is this Variation feature in predicting y_i?

    Let's build a model just like the earlier!

    In [234]:
    alpha = [10 ** x for x in range(-5, 1)]
    
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    
    cv_log_error_array=[]
    for i in alpha:
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_variation_feature_onehotCoding, y_train)
        
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_variation_feature_onehotCoding, y_train)
        predict_y = sig_clf.predict_proba(cv_variation_feature_onehotCoding)
        
        cv_log_error_array.append(log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
        print('For values of alpha = ', i, "The log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],np.round(txt,3)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_variation_feature_onehotCoding, y_train)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_variation_feature_onehotCoding, y_train)
    
    predict_y = sig_clf.predict_proba(train_variation_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_variation_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_variation_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    For values of alpha =  1e-05 The log loss is: 1.7182688218124458
    For values of alpha =  0.0001 The log loss is: 1.7138058026441398
    For values of alpha =  0.001 The log loss is: 1.7215133394904796
    For values of alpha =  0.01 The log loss is: 1.7304203308226154
    For values of alpha =  0.1 The log loss is: 1.7411277745200926
    For values of alpha =  1 The log loss is: 1.7411264446901122
    
    For values of best alpha =  0.0001 The train log loss is: 0.7682324124041652
    For values of best alpha =  0.0001 The cross validation log loss is: 1.7138058026441398
    For values of best alpha =  0.0001 The test log loss is: 1.6991731517000892
    

    Q11. Is the Variation feature stable across all the data sets (Test, Train, Cross validation)?

    Ans. Not sure! But lets be very sure using the below analysis.

    In [235]:
    print("Q12. How many data points are covered by total ", unique_variations.shape[0], " genes in test and cross validation data sets?")
    test_coverage=test_df[test_df['Variation'].isin(list(set(train_df['Variation'])))].shape[0]
    cv_coverage=cv_df[cv_df['Variation'].isin(list(set(train_df['Variation'])))].shape[0]
    print('Ans\n1. In test data',test_coverage, 'out of',test_df.shape[0], ":",(test_coverage/test_df.shape[0])*100)
    print('2. In cross validation data',cv_coverage, 'out of ',cv_df.shape[0],":" ,(cv_coverage/cv_df.shape[0])*100)
    
    Q12. How many data points are covered by total  1924  genes in test and cross validation data sets?
    Ans
    1. In test data 67 out of 665 : 10.075187969924812
    2. In cross validation data 51 out of  532 : 9.586466165413533
    

    3.2.3 Univariate Analysis on Text Feature

    1. How many unique words are present in train data?
    2. How are word frequencies distributed?
    3. How to featurize text field?
    4. Is the text feature useful in predicitng y_i?
    5. Is the text feature stable across train, test and CV datasets?
    In [33]:
    # cls_text is a data frame
    # for every row in data fram consider the 'TEXT'
    # split the words by space
    # make a dict with those words
    # increment its count whenever we see that word
    
    def extract_dictionary_paddle(cls_text):
        dictionary = defaultdict(int)
        for index, row in cls_text.iterrows():
            for word in row['TEXT'].split():
                dictionary[word] +=1
        return dictionary
    
    In [34]:
    import math
    #https://stackoverflow.com/a/1602964
    def get_text_responsecoding(df):
        text_feature_responseCoding = np.zeros((df.shape[0],9))
        for i in range(0,9):
            row_index = 0
            for index, row in df.iterrows():
                sum_prob = 0
                for word in row['TEXT'].split():
                    sum_prob += math.log(((dict_list[i].get(word,0)+10 )/(total_dict.get(word,0)+90)))
                text_feature_responseCoding[row_index][i] = math.exp(sum_prob/len(row['TEXT'].split()))
                row_index += 1
        return text_feature_responseCoding
    
    In [34]:
    # building a CountVectorizer with all the words that occured minimum 3 times in train data
    text_vectorizer = TfidfVectorizer(min_df=3)
    train_text_feature_onehotCoding = text_vectorizer.fit_transform(train_df['TEXT'])
    # getting all the feature names (words)
    train_text_features= text_vectorizer.get_feature_names()
    
    # train_text_feature_onehotCoding.sum(axis=0).A1 will sum every row and returns (1*number of features) vector
    train_text_fea_counts = train_text_feature_onehotCoding.sum(axis=0).A1
    
    # zip(list(text_features),text_fea_counts) will zip a word with its number of times it occured
    text_fea_dict = dict(zip(list(train_text_features),train_text_fea_counts))
    
    
    print("Total number of unique words in train data :", len(train_text_features))
    
    Total number of unique words in train data : 53692
    
    In [35]:
    dict_list = []
    # dict_list =[] contains 9 dictoinaries each corresponds to a class
    for i in range(1,10):
        cls_text = train_df[train_df['Class']==i]
        # build a word dict based on the words in that class
        dict_list.append(extract_dictionary_paddle(cls_text))
        # append it to dict_list
    
    # dict_list[i] is build on i'th  class text data
    # total_dict is buid on whole training text data
    total_dict = extract_dictionary_paddle(train_df)
    
    
    confuse_array = []
    for i in train_text_features:
        ratios = []
        max_val = -1
        for j in range(0,9):
            ratios.append((dict_list[j][i]+10 )/(total_dict[i]+90))
        confuse_array.append(ratios)
    confuse_array = np.array(confuse_array)
    
    In [40]:
    #response coding of text features
    train_text_feature_responseCoding  = get_text_responsecoding(train_df)
    test_text_feature_responseCoding  = get_text_responsecoding(test_df)
    cv_text_feature_responseCoding  = get_text_responsecoding(cv_df)
    
    In [41]:
    # https://stackoverflow.com/a/16202486
    # we convert each row values such that they sum to 1  
    train_text_feature_responseCoding = (train_text_feature_responseCoding.T/train_text_feature_responseCoding.sum(axis=1)).T
    test_text_feature_responseCoding = (test_text_feature_responseCoding.T/test_text_feature_responseCoding.sum(axis=1)).T
    cv_text_feature_responseCoding = (cv_text_feature_responseCoding.T/cv_text_feature_responseCoding.sum(axis=1)).T
    
    In [39]:
    # don't forget to normalize every feature
    train_text_feature_onehotCoding = normalize(train_text_feature_onehotCoding, axis=0)
    
    # we use the same vectorizer that was trained on train data
    test_text_feature_onehotCoding = text_vectorizer.transform(test_df['TEXT'])
    # don't forget to normalize every feature
    test_text_feature_onehotCoding = normalize(test_text_feature_onehotCoding, axis=0)
    
    # we use the same vectorizer that was trained on train data
    cv_text_feature_onehotCoding = text_vectorizer.transform(cv_df['TEXT'])
    # don't forget to normalize every feature
    cv_text_feature_onehotCoding = normalize(cv_text_feature_onehotCoding, axis=0)
    
    In [40]:
    #https://stackoverflow.com/a/2258273/4084039
    sorted_text_fea_dict = dict(sorted(text_fea_dict.items(), key=lambda x: x[1] , reverse=True))
    sorted_text_occur = np.array(list(sorted_text_fea_dict.values()))
    
    In [41]:
    # Number of words for a given frequency.
    print(Counter(sorted_text_occur))
    
    Counter({0.0063870312851483819: 313, 0.022410291025923196: 312, 0.047298856792744419: 230, 0.075839307972481548: 198, 0.014155561320837295: 181, 0.30514031900622129: 152, 0.26286096469061093: 128, 0.060667395731548585: 126, 0.01671417492882591: 117, 0.02325799695515816: 114, 0.065116648498611276: 108, 0.060901990336415919: 106, 0.010727453087097031: 104, 0.044881041979351277: 103, 0.081319145320628325: 99, 0.013562232519774856: 97, 0.037496273535580882: 94, 0.11140356129360053: 93, 0.036304734276462518: 91, 0.025872560512279555: 89, 0.012977841232013333: 86, 0.030743961773341853: 84, 0.016040418183782549: 83, 0.020524332817345364: 82, 0.032458068368984828: 81, 0.037414235747939936: 79, 0.030778199051910152: 71, 0.024307188000219863: 69, 0.054567606632715218: 68, 0.019862572241641483: 65, 0.030021437722506397: 64, 0.011120483751958066: 64, 0.05989166423658239: 63, 0.036630376917486988: 63, 0.015840177433098904: 63, 0.014629973258167662: 62, 0.01207617590715993: 61, 0.011353244101638306: 61, 0.055604483255333265: 60, 0.015050562621356461: 60, 0.11624445037125607: 58, 0.010764407387156774: 58, 0.053492156760679067: 57, 0.03116336935149764: 57, 0.11180359202552854: 56, 0.011596914643726468: 56, 0.023744468832284114: 55, 0.0097575529458089269: 54, 0.0181553605475426: 53, 0.19619398315211989: 51, 0.038349307208166566: 51, 0.019836556581524542: 51, 0.018691081907986889: 51, 0.052815059232954938: 50, 0.0072949116329825824: 50, 0.016441889846807927: 49, 0.012858895188828021: 49, 0.064050600114195208: 48, 0.03118922729935307: 48, 0.049157127531662459: 47, 0.035676189819308542: 47, 0.026693199848185894: 47, 0.015950688929390274: 47, 0.13950758934066038: 46, 0.080998983741240427: 46, 0.037476762299855373: 46, 0.028203176453987323: 46, 0.1268686015098586: 45, 0.072632636583217974: 45, 0.064916582553619803: 44, 0.050184380741127799: 44, 0.03273178420550954: 44, 0.030467684424536033: 44, 0.063085843112926795: 43, 0.045358088363892601: 43, 0.025363506197738743: 43, 0.21534670428643932: 42, 0.066673374387252807: 42, 0.014369683548806538: 42, 0.018228307933558272: 41, 0.050261704527967702: 40, 0.041390761119566334: 40, 0.011135335396380961: 40, 0.041983272762323269: 39, 0.024816987599178816: 39, 0.022294976570891134: 39, 0.0095810687981748542: 39, 0.047850513708363698: 38, 0.046957071731142858: 38, 0.024250098174056909: 38, 0.023091498099919748: 38, 0.022296520388372286: 38, 0.095010728250191689: 37, 0.088187347137323555: 37, 0.032766380731841557: 37, 0.024565975037640991: 37, 0.021571397431027449: 37, 0.012774062570296764: 37, 0.050111679215257429: 36, 0.037314592725128243: 36, 0.019203336468181974: 36, 0.032178799436211762: 35, 0.025490659796341044: 35, 0.014192588872350373: 35, 0.10716126912311727: 34, 0.044820582051846393: 34, 0.02872400085780754: 34, 0.027154207265542948: 34, 0.026086729320875059: 34, 0.024286294597887378: 34, 0.018742102148743417: 34, 0.015734320296329998: 34, 0.19133423180227058: 33, 0.11585878993455619: 33, 0.037282047065170541: 33, 0.014580832371909148: 33, 0.014352287646020447: 33, 0.012083210871143956: 33, 0.11220884313422966: 32, 0.045368104621761156: 32, 0.044756193145532724: 32, 0.027894253924120687: 32, 0.026281029096018118: 32, 0.010078831350734761: 32, 0.0085589457722207336: 32, 0.098557902655050544: 31, 0.011388905108538315: 31, 0.0060990799275720715: 31, 0.0058787813803208508: 31, 0.077131819948664124: 30, 0.071718959697833054: 30, 0.068790836860520302: 30, 0.055803658428040991: 30, 0.042619115340198979: 30, 0.0340870982504861: 30, 0.023942675114982617: 30, 0.021711211782458807: 30, 0.019848594349285563: 30, 0.015190131079114457: 30, 0.011486477777692052: 30, 0.081156212886008813: 29, 0.074992547071161764: 29, 0.060935368849072066: 29, 0.04341864120486922: 29, 0.023350822764183026: 29, 0.022383449391083839: 29, 0.014618361982095625: 29, 0.43069340857287863: 28, 0.037146820612206644: 28, 0.035905494297409593: 28, 0.027476013346399673: 28, 0.026799658560702939: 28, 0.076698614416333133: 27, 0.06520101964395135: 27, 0.028105504322738468: 27, 0.02804100239176564: 27, 0.019859728974461095: 27, 0.017868421975161655: 27, 0.015680537681220876: 27, 0.055540495023104409: 26, 0.020547133454898257: 26, 0.017188117942718024: 26, 0.0097739648446348859: 26, 0.0072221544511958686: 26, 0.11933850750123545: 25, 0.11734524660191666: 25, 0.031145469298226494: 25, 0.023995897302709148: 25, 0.018025650175142131: 25, 0.013970465296606298: 25, 0.013019039283361074: 25, 0.010696385469032248: 25, 0.14174200076427779: 24, 0.043972028589941065: 24, 0.027261409898650321: 24, 0.01631168937181611: 24, 0.016226040874157004: 24, 0.015907769325089582: 24, 0.012973233261974179: 24, 0.45064962083740867: 23, 0.13494239870673239: 23, 0.060042875445012793: 23, 0.052419224850372134: 23, 0.022863778975438093: 23, 0.16199796748248085: 22, 0.055320821500908522: 22, 0.048264198627056408: 22, 0.046685501859763903: 22, 0.031992938786535072: 22, 0.015379514528550246: 22, 0.39958931928990915: 21, 0.049471376854217: 21, 0.043532242510911319: 21, 0.031313153140085224: 21, 0.019829703119219059: 21, 0.016803201054691411: 21, 0.013781375111552304: 21, 0.012787316947089945: 21, 0.1516786159449631: 20, 0.089762083958702554: 20, 0.061122243500668673: 20, 0.031211912724976584: 20, 0.027629648364589421: 20, 0.023614305999961293: 20, 0.020228889384317644: 20, 0.018398529742113041: 20, 0.01761232872183912: 20, 0.016230221271716083: 20, 0.015584916319532866: 20, 0.059626058186295655: 19, 0.040509624034191213: 19, 0.035810409713246741: 19, 0.020864405026273326: 19, 0.018446912031246408: 19, 0.018215149342037929: 19, 0.017766116017120224: 19, 0.015657411381700473: 19, 0.0098043129536556882: 19, 0.0088915282616761852: 19, 0.0069324536033431722: 19, 0.072609468552925036: 18, 0.040554330492765543: 18, 0.038430964954863395: 18, 0.037484204297486834: 18, 0.028136177289321398: 18, 0.026934993574794071: 18, 0.025497771570821861: 18, 0.020748085589223756: 18, 0.020030922600979217: 18, 0.017272743543585635: 18, 0.01301015699191754: 18, 0.1375816737210406: 17, 0.1150479216244997: 17, 0.057749956093769046: 17, 0.042714749030798096: 17, 0.035515529996677522: 17, 0.033103530553574824: 17, 0.030328280841807505: 17, 0.029345199090264888: 17, 0.027335111026952449: 17, 0.025955682464026665: 17, 0.020956814064859795: 17, 0.018805825448181792: 17, 0.012213220811176033: 17, 0.012197276354875866: 17, 0.52572192938122186: 16, 0.17637469427464711: 16, 0.041048665634690729: 16, 0.040926180054409705: 16, 0.036456615867116543: 16, 0.027468504597969744: 16, 0.010725216956915076: 16, 0.0083019410171591892: 16, 0.22441768626845932: 15, 0.09484111266515359: 15, 0.076629993058971974: 15, 0.053426929184269022: 15, 0.050981319592682088: 15, 0.04107224090889449: 15, 0.039346429372128705: 15, 0.038337500878802826: 15, 0.030875989474355017: 15, 0.025954079110182524: 15, 0.014478197693483796: 15, 0.014276326678556809: 15, 0.012131344833815623: 15, 0.0096556118180255082: 15, 0.21832818509983035: 14, 0.15461207788112433: 14, 0.13541952820081982: 14, 0.12218213426739416: 14, 0.098738000278645571: 14, 0.082781522239132668: 14, 0.073811919987839592: 14, 0.068174196500972201: 14, 0.06237845459870614: 14, 0.062215704113737627: 14, 0.061487923546683705: 14, 0.058396529970124907: 14, 0.041377318869754869: 14, 0.03899003553402846: 14, 0.029259946516335324: 14, 0.025146302799887305: 14, 0.021971330807078599: 14, 0.019625428932814534: 14, 0.019098249604734406: 14, 0.0089620853805081838: 14, 0.12810120022839042: 13, 0.061475168675852732: 13, 0.055514990631186242: 13, 0.039725144483282966: 13, 0.037327249278577834: 13, 0.03262337874363222: 13, 0.028066823908098764: 13, 0.021474248950533677: 13, 0.017683019136184676: 13, 0.017603685588608701: 13, 0.01178617636737837: 13, 0.01045848716393907: 13, 0.11248882060674263: 12, 0.11208989425008295: 12, 0.10226842393653017: 12, 0.074764327631947555: 12, 0.054964323759013639: 12, 0.038933523696039994: 12, 0.036985320649950144: 12, 0.022270670792761921: 12, 0.021825272113994688: 12, 0.020419972114838213: 12, 0.016616761714488011: 12, 0.43665637019966069: 11, 0.15844517769886479: 11, 0.12224448700133735: 11, 0.10226129475145829: 11, 0.074828471495879872: 11, 0.061496473083025277: 11, 0.056872723128049259: 11, 0.048500196348113818: 11, 0.034417995483658641: 11, 0.032080836367565098: 11, 0.026540263751481798: 11, 0.022424058471067966: 11, 0.01788102146158653: 11, 0.015189158299634757: 11, 0.0083287394532112619: 11, 0.0056156913548892308: 11, 0.64604011285931806: 10, 0.10563011846590988: 10, 0.10440240596379942: 10, 0.1003687614822556: 10, 0.095701027416727397: 10, 0.095684219556896905: 10, 0.094678951633065403: 10, 0.085429498061596193: 10, 0.067230873077769579: 10, 0.062478597550606793: 10, 0.048431206223148324: 10, 0.040701003479532975: 10, 0.038406672936363948: 10, 0.036310721095085201: 10, 0.03434954839337314: 10, 0.031680354866197809: 10, 0.023707084847321484: 10, 0.019515105891617854: 10, 0.01447114970498106: 10, 0.011757562760641702: 10, 0.0083761083951633761: 10, 0.0053118563146921319: 10, 0.2429969512237212: 9, 0.22280712258720106: 9, 0.20637251058156086: 9, 0.14189657037823325: 9, 0.12133479146309717: 9, 0.11144046183661993: 9, 0.094597713585488838: 9, 0.085238230680397958: 9, 0.083071357827372447: 9, 0.080117731213446369: 9, 0.074293641224413287: 9, 0.073260753834973977: 9, 0.071810988594819186: 9, 0.068824930506835066: 9, 0.066207061107149648: 9, 0.065133635347376415: 9, 0.056161006593630165: 9, 0.054308414531085897: 9, 0.052836986165517359: 9, 0.047339475816532701: 9, 0.044593040776744572: 9, 0.043422423564917614: 9, 0.041094266909796513: 9, 0.039673113163049084: 9, 0.034524055647809443: 9, 0.032280823576828703: 9, 0.030229158579728719: 9, 0.027940930593212596: 9, 0.026838686243961539: 9, 0.023965437622358015: 9, 0.022335201569255132: 9, 0.011700438643197662: 9, 0.010583892485586176: 9, 0.01039811182679758: 9, 0.45503584783488915: 8, 0.2866163231833373: 8, 0.2370879517650214: 8, 0.17061816938414778: 8, 0.16263829064125665: 8, 0.12617168622585359: 8, 0.093914143462285715: 8, 0.090064313167519172: 8, 0.076813345872727895: 8, 0.064357598872423524: 8, 0.062360865723824585: 8, 0.061556398103820305: 8, 0.056429622236667476: 8, 0.052562058192036236: 8, 0.05174512102455911: 8, 0.048614376000439725: 8, 0.046515993910316321: 8, 0.041130652215349436: 8, 0.040839944229676427: 8, 0.037382163815973778: 8, 0.035539408965903595: 8, 0.033428349857651821: 8, 0.028385177744700747: 8, 0.025217818025449732: 8, 0.024152351814319861: 8, 0.021454906174194061: 8, 0.019162137596349708: 8, 0.018198342563074288: 8, 1.0916409254991519: 7, 0.2386770150024709: 7, 0.15426363989732825: 7, 0.12983316510723961: 7, 0.10685385836853804: 7, 0.096536398308635307: 7, 0.090212085448784049: 7, 0.066889561165116851: 7, 0.06232673870299528: 7, 0.061572998452036086: 7, 0.06065656168361501: 7, 0.059962351975405191: 7, 0.055259296729178842: 7, 0.054670222053904899: 7, 0.054522819797300642: 7, 0.047885350229965234: 7, 0.046701645528366052: 7, 0.045186794520152611: 7, 0.041728810052546653: 7, 0.040448460806112682: 7, 0.038052419253532178: 7, 0.035224657443678239: 7, 0.03454548708717127: 7, 0.022161046142678938: 7, 0.022155510844902408: 7, 0.020157662701469521: 7, 0.019547929689269772: 7, 0.019348657194283601: 7, 0.018297239782716215: 7, 0.017117891544441467: 7, 0.012056874096651819: 7, 0.0083530622096484267: 7, 0.53087515580737077: 6, 0.43667155869245849: 6, 0.39238796630423978: 6, 0.38266846360454115: 6, 0.27899929744616669: 6, 0.26456204141197071: 6, 0.19711580531010109: 6, 0.17952416791740511: 6, 0.15325998611794395: 6, 0.14652150766994795: 6, 0.11120896651066653: 6, 0.10325398645097592: 6, 0.091403053273608093: 6, 0.089641164103692786: 6, 0.089512386291065449: 6, 0.086879814520824467: 6, 0.084609529361961977: 6, 0.067469503866506131: 6, 0.065532761463683115: 6, 0.06546356841101908: 6, 0.062423825449953167: 6, 0.062290938596452988: 6, 0.054684923800674815: 6, 0.052173458641750117: 6, 0.05191136492805333: 6, 0.046754748958598595: 6, 0.044766898782167677: 6, 0.044589953141782268: 6, 0.043639054482830245: 6, 0.043142794862054898: 6, 0.043087211053071721: 6, 0.03894388491866882: 6, 0.037322547378314634: 6, 0.032460442543432166: 6, 0.031901377858780548: 6, 0.031361075362441752: 6, 0.031314822763400946: 6, 0.028743206394524559: 6, 0.026309093055176244: 6, 0.025894710160513632: 6, 0.023193829287452936: 6, 0.02277781021707663: 6, 0.020595996935301526: 6, 0.018751067945264533: 6, 0.01657475141566167: 6, 0.0081190209478696884: 6, 0.61028063801244259: 5, 0.33421068388080138: 5, 0.27516334744208121: 5, 0.21015006405754472: 5, 0.16928886671000243: 5, 0.16681344976599974: 5, 0.16370281989814564: 5, 0.15738571748851482: 5, 0.14526527316643595: 5, 0.14355154112509108: 5, 0.13622194907856863: 5, 0.1304020392879027: 5, 0.12180398067283184: 5, 0.11978332847316478: 5, 0.11529289486459018: 5, 0.11374544625609852: 5, 0.11224270724381982: 5, 0.11064164300181704: 5, 0.10913521326543044: 5, 0.10891420282938755: 5, 0.098314255063324918: 5, 0.093710510743717085: 5, 0.092231885320025575: 5, 0.090984842525422507: 5, 0.086174422106143442: 5, 0.082428040039199041: 5, 0.080663511241796701: 5, 0.079200887165494518: 5, 0.078927279165528733: 5, 0.076471979389023129: 5, 0.072921564000659578: 5, 0.071828025344947838: 5, 0.067811162598874278: 5, 0.064916136737969657: 5, 0.06471419229308234: 5, 0.064466905512091957: 5, 0.059587716724924453: 5, 0.059509669744573633: 5, 0.056406352907974647: 5, 0.056082004783531279: 5, 0.056073245723960663: 5, 0.054248930079099422: 5, 0.051149267788359778: 5, 0.050409603164074231: 5, 0.049325669540423778: 5, 0.045570393237343382: 5, 0.042785541876128992: 5, 0.042577766617051115: 5, 0.038622447272102033: 5, 0.038248270427086402: 5, 0.03576204292317306: 5, 0.03573684395032331: 5, 0.032883779693615854: 5, 0.032089156407096746: 5, 0.02929308653579555: 5, 0.027562750223104608: 5, 0.027436307540996432: 5, 0.026822688789520342: 5, 0.025717790377656043: 5, 0.025574633894179889: 5, 0.025548125140593528: 5, 0.023837443423824094: 5, 0.021247425258768528: 5, 0.0093360956413101274: 5, 0.7885828940718318: 4, 0.60671446377985239: 4, 0.54276777981124846: 4, 0.48391626129500276: 4, 0.34649973656261424: 4, 0.27901517868132075: 4, 0.27214853018335561: 4, 0.25373720301971719: 4, 0.24645159824052182: 4, 0.23469049320383331: 4, 0.22751792391744458: 4, 0.22440520989675641: 4, 0.20448129919388713: 4, 0.15594613649676536: 4, 0.150107188612532: 4, 0.14629973258167661: 4, 0.13809622259123777: 4, 0.12321672272668351: 4, 0.11915837384676659: 4, 0.10698431352135813: 4, 0.10199108628328744: 4, 0.1005234090559354: 4, 0.10022335843051486: 4, 0.096842470730486102: 4, 0.093455409539934461: 4, 0.088270224558893787: 4, 0.085571083752257984: 4, 0.082144481817788981: 4, 0.082097331269381457: 4, 0.080398975682108825: 4, 0.078089846017714057: 4, 0.076861929909726789: 4, 0.076392998418937624: 4, 0.076104838507064357: 4, 0.074953524599710747: 4, 0.074654498557155669: 4, 0.073970641299900289: 4, 0.066884929712673402: 4, 0.066833029354903942: 4, 0.05858371322774699: 4, 0.056770355489401493: 4, 0.054872615081992863: 4, 0.054076950525426395: 4, 0.053599317121405879: 4, 0.051865690175351128: 4, 0.050855988810953837: 4, 0.04916892887724951: 4, 0.046906925058143756: 4, 0.044848116942135932: 4, 0.042948497901067355: 4, 0.042466683962511895: 4, 0.040281701423213023: 4, 0.040210248221302231: 4, 0.039719457948922191: 4, 0.039659406238438118: 4, 0.036893824062492815: 4, 0.036430298684075858: 4, 0.035272688281925105: 4, 0.035038641887465236: 4, 0.032182359261291094: 4, 0.031482987965982014: 4, 0.031468640592659997: 4, 0.030495399637860358: 4, 0.030380262158228914: 4, 0.02831112264167459: 4, 0.026624833487259393: 4, 0.024905823051477569: 4, 0.023400877286395325: 4, 0.022706488203276611: 4, 0.022252600505479732: 4, 0.022240967503916131: 4, 0.021666463353587601: 4, 0.019720088933709013: 4, 0.019522359148873167: 4, 0.018911759421551308: 4, 0.018528869436078378: 4, 0.014589823265965165: 4, 0.014487426239579423: 4, 0.013938182392593049: 4, 0.011379235032762752: 4, 0.0090225461568051238: 4, 0.0070794259362128419: 4, 1.3143048234530539: 3, 0.90129924167481734: 3, 0.87331274039932139: 3, 0.67622685543437999: 3, 0.66842136776160277: 3, 0.62483570583345027: 3, 0.61475168675852709: 3, 0.55799859489233339: 3, 0.55701780646800259: 3, 0.51703201544053567: 3, 0.39027869039258306: 3, 0.38724575050635962: 3, 0.38273687822758762: 3, 0.35274938854929422: 3, 0.35203573980574987: 3, 0.33023581494757037: 3, 0.30922415576224865: 3, 0.30737584337926355: 3, 0.3068052718095905: 3, 0.28436361564024631: 3, 0.2802098731701963: 3, 0.27660410750454256: 3, 0.26713464592134506: 3, 0.26051184722921533: 3, 0.23612105681554446: 3, 0.22497764121348526: 3, 0.22378096572766365: 3, 0.22241793302133306: 3, 0.22128328600363409: 3, 0.2178979097496539: 3, 0.21432253824623454: 3, 0.21370771673707609: 3, 0.19853590079343053: 3, 0.19747600055729114: 3, 0.19215180034258561: 3, 0.1917465360408328: 3, 0.19140205483345479: 3, 0.19002145650038338: 3, 0.18782828692457143: 3, 0.1844894192490758: 3, 0.18336673050200603: 3, 0.18270597100924776: 3, 0.18012862633503834: 3, 0.17853243398887697: 3, 0.17847577986123775: 3, 0.17043549125243049: 3, 0.16821973717188207: 3, 0.16741097528412294: 3, 0.16596246450272556: 3, 0.16231242577201763: 3, 0.15441453900324542: 3, 0.15033503764577227: 3, 0.14952865526389511: 3, 0.14762383997567918: 3, 0.13764986101367013: 3, 0.13346599924092944: 3, 0.13157128696402726: 3, 0.13140514548009058: 3, 0.12187073769814413: 3, 0.12131312336723002: 3, 0.12083050290693104: 3, 0.11778063997150873: 3, 0.11679305994024981: 3, 0.11646553957630892: 3, 0.11281270581594929: 3, 0.11243028689956613: 3, 0.11242201729095387: 3, 0.10861682906217179: 3, 0.10855605891229403: 3, 0.10849786015819884: 3, 0.10771648289222879: 3, 0.10719863424281176: 3, 0.097374205106954465: 3, 0.095252456876179781: 3, 0.095041064598593433: 3, 0.093974051645037929: 3, 0.092627968423065046: 3, 0.092365992399678992: 3, 0.091141539667791358: 3, 0.090716176727785203: 3, 0.088035597270794672: 3, 0.087944057179882129: 3, 0.086844847129835229: 3, 0.084509304102896921: 3, 0.083966545524646538: 3, 0.082888945093768249: 3, 0.082188533819593027: 3, 0.081852360108819411: 3, 0.078671601481649978: 3, 0.078114235700166443: 3, 0.077980071068056919: 3, 0.077867047392079988: 3, 0.074874698283225738: 3, 0.074629185450256486: 3, 0.074564094130341083: 3, 0.073091809910478131: 3, 0.072750294522170703: 3, 0.072102600700568523: 3, 0.071473687900646621: 3, 0.070050165108687876: 3, 0.06909097417434254: 3, 0.068835990967317282: 3, 0.068452390720129846: 3, 0.067272175413203891: 3, 0.06704661763460748: 3, 0.065987681508796719: 3, 0.062626306280170449: 3, 0.061787990805904594: 3, 0.060458317159457438: 3, 0.059112261401021188: 3, 0.058519893032670647: 3, 0.057610009404545914: 3, 0.057294748814203218: 3, 0.056272354578642797: 3, 0.056226306446230251: 3, 0.056211008645476936: 3, 0.054937009195939489: 3, 0.054466081642627805: 3, 0.053481927345161231: 3, 0.053298348051360675: 3, 0.053080527502963597: 3, 0.051002114149064762: 3, 0.050435636050899464: 3, 0.049633975198357633: 3, 0.04893506811544833: 3, 0.047723307975268761: 3, 0.047414169694642967: 3, 0.047228611999922586: 3, 0.046182996199839496: 3, 0.046050185939587124: 3, 0.044810426902540924: 3, 0.044649142820804552: 3, 0.043889919774502989: 3, 0.043650544227989377: 3, 0.043434593080451382: 3, 0.041911395889818896: 3, 0.041496171178447512: 3, 0.039796280050877098: 3, 0.037611650896363584: 3, 0.036132924700115816: 3, 0.036110772255979341: 3, 0.035515499121701662: 3, 0.035366038272369352: 3, 0.035207371177217402: 3, 0.035006409836579183: 3, 0.034419981624516982: 3, 0.034376235885436049: 3, 0.033937191643478769: 3, 0.033606402109382823: 3, 0.033406006189142884: 3, 0.033361451255874197: 3, 0.03332975344957842: 3, 0.032378468865298674: 3, 0.032258492106930346: 3, 0.032086430905022147: 3, 0.0313317801654691: 3, 0.031169832639065732: 3, 0.030702416745074693: 3, 0.030483077486693759: 3, 0.030378316599269515: 3, 0.03014935238410725: 3, 0.029771285501061069: 3, 0.02923672396419125: 3, 0.028888617804783474: 3, 0.028688619112488146: 3, 0.027632940358450951: 3, 0.024394552709751733: 3, 0.024389615246061563: 3, 0.023507971088727972: 3, 0.022972955555384103: 3, 0.021854364704753014: 3, 0.021450433913830152: 3, 0.021392770938064496: 3, 0.021321361425749315: 3, 0.02092945167476893: 3, 0.019311223636051016: 3, 0.019161093855445146: 3, 0.018749846265260477: 3, 0.01778305652335237: 3, 0.017636344140962552: 3, 0.016603882034318378: 3, 0.016427688868651296: 3, 0.016302514728482147: 3, 0.015949474016937533: 3, 0.015841318636972444: 3, 0.015213676513676916: 3, 0.014181449331530187: 3, 0.012823133315473741: 3, 0.012629768910604265: 3, 0.012198159855144143: 3, 0.01206507685089964: 3, 0.011898722843444186: 3, 0.011231382709778462: 3, 0.010930823416820367: 3, 0.0099887709201329309: 3, 3.1248856520360806: 2, 2.4411225520497704: 2, 1.5257015950311057: 2, 1.3622194907856866: 2, 1.2545803928647368: 2, 1.1797112402014447: 2, 1.0767335214321962: 2, 0.97745707413915328: 2, 0.88967173208533223: 2, 0.83406724882999872: 2, 0.82748919529376275: 2, 0.81101152954189326: 2, 0.78477593260847955: 2, 0.76533692720908231: 2, 0.6865957700284141: 2, 0.67561066856857577: 2, 0.6638877886560749: 2, 0.66275715470486718: 2, 0.6172017963071601: 2, 0.60776330976535597: 2, 0.58096565156250424: 2, 0.57456098186981142: 2, 0.55749339608273185: 2, 0.55032669488416242: 2, 0.53976959482692954: 2, 0.52467467219797526: 2, 0.49203199848514406: 2, 0.49035115576081512: 2, 0.45977985075377104: 2, 0.45593785032935757: 2, 0.45541613686485183: 2, 0.4483595770003318: 2, 0.44561424517440212: 2, 0.44160090179048761: 2, 0.44093673568661795: 2, 0.43872501797331631: 2, 0.42031480975529445: 2, 0.41849894616924993: 2, 0.41705087277834618: 2, 0.41002666540428673: 2, 0.40907369574612068: 2, 0.39739248842581043: 2, 0.39732046166789564: 2, 0.39395629469312843: 2, 0.38949949532171885: 2, 0.38016425839437373: 2, 0.36885101205511628: 2, 0.36025725267007669: 2, 0.35905494297409596: 2, 0.35129066518789454: 2, 0.34087098250486098: 2, 0.33950137443679668: 2, 0.33746646182022783: 2, 0.33740302843237285: 2, 0.32462485154403525: 2, 0.32399593496496171: 2, 0.32025300057097605: 2, 0.31374407436292467: 2, 0.30467684424536035: 2, 0.30328280841807509: 2, 0.3021440457938403: 2, 0.29717456489765315: 2, 0.29307148256695958: 2, 0.29198264985062455: 2, 0.2905305463328719: 2, 0.28874978046884525: 2, 0.28687583879133222: 2, 0.28648326038086802: 2, 0.28174243038685709: 2, 0.27000939462005086: 2, 0.26892349231107832: 2, 0.26853715887319635: 2, 0.26636693477472523: 2, 0.26559052618460083: 2, 0.25366966499417543: 2, 0.25221832847042414: 2, 0.25092190370563905: 2, 0.24346863865802643: 2, 0.24031052304224543: 2, 0.24017150178005117: 2, 0.23925256854181851: 2, 0.23478535865571426: 2, 0.23285304461051595: 2, 0.23267184754049: 2, 0.23157717282127221: 2, 0.23139545984599236: 2, 0.23099982437507618: 2, 0.22988997917691595: 2, 0.22905790987497371: 2, 0.22749089251219703: 2, 0.22684052310880576: 2, 0.2241797885001659: 2, 0.22396349567146698: 2, 0.22360718405105709: 2, 0.22321463371216396: 2, 0.21978226150492192: 2, 0.21827042653086087: 2, 0.21786432657051122: 2, 0.21782840565877509: 2, 0.21709320602434609: 2, 0.21515687909349915: 2, 0.20880481192759884: 2, 0.20764545971221332: 2, 0.20452258950291657: 2, 0.20145104451975451: 2, 0.20029426692708915: 2, 0.20002012316175838: 2, 0.197885507416868: 2, 0.19742223517791127: 2, 0.19638484471988202: 2, 0.19540090604212923: 2, 0.19378889217702602: 2, 0.18968222533030718: 2, 0.18925752933878037: 2, 0.18919542717097768: 2, 0.18794212597099433: 2, 0.18759760992492061: 2, 0.18687281578935899: 2, 0.18663624639288914: 2, 0.18641023532585271: 2, 0.18570533204806283: 2, 0.18446377064005115: 2, 0.18442550602755814: 2, 0.18110792358595684: 2, 0.18027830340881296: 2, 0.17968063261572342: 2, 0.17967499270974716: 2, 0.17952747148704798: 2, 0.17906759512867071: 2, 0.1790247725821309: 2, 0.17876315017477332: 2, 0.1784346185743873: 2, 0.17174282497861523: 2, 0.16759872580487831: 2, 0.16709144187025907: 2, 0.16662148506931321: 2, 0.16614271565474489: 2, 0.16533943135449208: 2, 0.16499962101874482: 2, 0.16428896363557796: 2, 0.1635684593919019: 2, 0.16310687000183707: 2, 0.16292524359325772: 2, 0.16223085157627917: 2, 0.15921476848822427: 2, 0.15696840929747574: 2, 0.15294395877804626: 2, 0.15278599683787525: 2, 0.15220967701412871: 2, 0.1505531422233834: 2, 0.14998509414232353: 2, 0.14925837090051297: 2, 0.14912818826068217: 2, 0.14794128259980058: 2, 0.14521893710585007: 2, 0.1441765443112116: 2, 0.14365605068989568: 2, 0.14362197718963837: 2, 0.14275625355214666: 2, 0.1424668129937047: 2, 0.14201842744959811: 2, 0.14101588226993661: 2, 0.14094741658259868: 2, 0.14091386141272255: 2, 0.13949964872308335: 2, 0.13903800569149039: 2, 0.13630704949325159: 2, 0.13577103632771473: 2, 0.13464312593805386: 2, 0.13446174615553916: 2, 0.13430069634650305: 2, 0.13426857943659817: 2, 0.1341934312198077: 2, 0.13106552292736623: 2, 0.13091716344849075: 2, 0.13030377924135414: 2, 0.13023329699722255: 2, 0.12977039555091263: 2, 0.12891327113257095: 2, 0.12698638951092528: 2, 0.12672141946479124: 2, 0.12542017715334658: 2, 0.12532013190389024: 2, 0.12465347740599056: 2, 0.12459292844768244: 2, 0.12458187719290598: 2, 0.12444129813763177: 2, 0.12443140822747525: 2, 0.124172283358699: 2, 0.12299294616605055: 2, 0.12297584709336741: 2, 0.12248868936019058: 2, 0.12152887210257365: 2, 0.12008575089002559: 2, 0.11942766538356266: 2, 0.11766024015935472: 2, 0.11722339318627725: 2, 0.11549991218753809: 2, 0.11489600343123016: 2, 0.1133159606826394: 2, 0.11285924447333495: 2, 0.1124526128924605: 2, 0.11214649144792133: 2, 0.11205145512961601: 2, 0.11194377817538473: 2, 0.11184614119551162: 2, 0.11147488285445567: 2, 0.10992864751802728: 2, 0.10985665403539302: 2, 0.1093404441078098: 2, 0.10793493701528739: 2, 0.10753432557911037: 2, 0.10297998467650764: 2, 0.10291877663427151: 2, 0.10196263918536418: 2, 0.10146189625905652: 2, 0.10078831350734761: 2, 0.10056914598632584: 2, 0.1005044158896272: 2, 0.10021801856742864: 2, 0.10015461300489609: 2, 0.099310591660724479: 2, 0.099148515596095291: 2, 0.098942753708434: 2, 0.098885188309344646: 2, 0.098299142195524686: 2, 0.096012376102148134: 2, 0.095770700459930469: 2, 0.094895192722190033: 2, 0.094338899470357757: 2, 0.093966995358679473: 2, 0.093567681898059224: 2, 0.093031987820632642: 2, 0.092578514330579564: 2, 0.092572296478821745: 2, 0.09236093367349342: 2, 0.092334597155730461: 2, 0.091963265271333958: 2, 0.090776802737713005: 2, 0.09068747573918616: 2, 0.090373589040305222: 2, 0.090201478716192204: 2, 0.089533797564335355: 2, 0.087120766935994132: 2, 0.086363717717928168: 2, 0.084677323785400604: 2, 0.084016005273457067: 2, 0.083887087091694623: 2, 0.082308922622989306: 2, 0.082261304430698873: 2, 0.082209449234039639: 2, 0.081960457912305718: 2, 0.081667008535038305: 2, 0.080878833314626294: 2, 0.08012369040391687: 2, 0.08008814565711353: 2, 0.07961638264660309: 2, 0.079538846625447926: 2, 0.079346226326098168: 2, 0.077772439603851801: 2, 0.077617681536838651: 2, 0.076496540854172804: 2, 0.076126000538641797: 2, 0.075438908399661914: 2, 0.075252813106782307: 2, 0.075217439931091062: 2, 0.074922647463331382: 2, 0.073361774635449448: 2, 0.071987691908127441: 2, 0.07136747822308033: 2, 0.071352379638617083: 2, 0.071121254541964454: 2, 0.071064464068480895: 2, 0.070551819455143328: 2, 0.069435077796943842: 2, 0.069076924026448078: 2, 0.068887453802604567: 2, 0.068871524648727936: 2, 0.068626318225907382: 2, 0.067212804218765645: 2, 0.067150348173251523: 2, 0.067023553764193944: 2, 0.066459969342449701: 2, 0.066299005662646682: 2, 0.065493632326396239: 2, 0.065344846717080074: 2, 0.064904163496628017: 2, 0.064835802162698436: 2, 0.064561647153657406: 2, 0.064527549625028241: 2, 0.064289887432923298: 2, 0.063659016793287629: 2, 0.06340176138895616: 2, 0.063086884297284027: 2, 0.062937281185319993: 2, 0.06257310490650668: 2, 0.0622362586153095: 2, 0.061959525596765708: 2, 0.061944212017778756: 2, 0.061787370949012356: 2, 0.061751978948710033: 2, 0.061440140494882181: 2, 0.061291210152429131: 2, 0.061112739066954677: 2, 0.060986381774379331: 2, 0.060760524316457828: 2, 0.060686668152952927: 2, 0.059929719427578639: 2, 0.05953759703721366: 2, 0.058876286798443596: 2, 0.058690398180529776: 2, 0.058545317674853561: 2, 0.058464955153238601: 2, 0.057777235609566949: 2, 0.056554047440117258: 2, 0.05623199551536983: 2, 0.056210542569039679: 2, 0.056160454826767923: 2, 0.05600862231546213: 2, 0.055858717471356935: 2, 0.055788507848241374: 2, 0.055676676981904809: 2, 0.055340736093739226: 2, 0.055203439742676302: 2, 0.054952026692799347: 2, 0.05482901799736626: 2, 0.053980765906293297: 2, 0.05355114912143219: 2, 0.053386399696371788: 2, 0.053249666974518786: 2, 0.053049057408554028: 2, 0.052629065462778984: 2, 0.052004663298069645: 2, 0.051908158220365049: 2, 0.051818230630756905: 2, 0.051705136798522018: 2, 0.050995543141643722: 2, 0.050905048811429633: 2, 0.050727012395477486: 2, 0.050258882851916584: 2, 0.050194569900943217: 2, 0.049647907955689519: 2, 0.049608823680449055: 2, 0.049131950075281983: 2, 0.048789105419503466: 2, 0.048656224647847607: 2, 0.048480198863885514: 2, 0.04812125455134765: 2, 0.04808774641203431: 2, 0.047991794605418296: 2, 0.047819723416829898: 2, 0.047587034661369133: 2, 0.047488937664568229: 2, 0.047057666965211194: 2, 0.047031580914915598: 2, 0.04656733611581864: 2, 0.046037697954002227: 2, 0.045567474898904274: 2, 0.045151687864069381: 2, 0.044894164987078614: 2, 0.044541341585523843: 2, 0.044311021689804816: 2, 0.043942661614157198: 2, 0.043792879800883477: 2, 0.04374249711572744: 2, 0.043240198952632772: 2, 0.043157641581608508: 2, 0.042909812348388122: 2, 0.04284045598101064: 2, 0.042703381950925358: 2, 0.042371559858926468: 2, 0.04206178442825341: 2, 0.041978770203023402: 2, 0.041852216829594016: 2, 0.041764665222185499: 2, 0.041705148370078639: 2, 0.041487443921789505: 2, 0.041333985506250857: 2, 0.041031617415765456: 2, 0.040686697559324567: 2, 0.040596690411182301: 2, 0.040096843047729244: 2, 0.039733989870814425: 2, 0.039697188698571126: 2, 0.039055191515541272: 2, 0.039030470975752622: 2, 0.039030211783235708: 2, 0.038697314388567203: 2, 0.03836195084126983: 2, 0.038324275192699417: 2, 0.038060507784579832: 2, 0.037954057372423557: 2, 0.037448678572704674: 2, 0.037445753356567316: 2, 0.037334333552908411: 2, 0.037098818196506185: 2, 0.037058169060577642: 2, 0.037055259012451998: 2, 0.036875442728938487: 2, 0.036800471484568761: 2, 0.036591829064627594: 2, 0.036170622289955455: 2, 0.036126800402843905: 2, 0.036120860655019509: 2, 0.036051300350284261: 2, 0.035848341522032735: 2, 0.035836035904491206: 2, 0.035532232034240448: 2, 0.035211277069657751: 2, 0.035190574050689614: 2, 0.034906528297578718: 2, 0.034840667890672465: 2, 0.034668575489541872: 2, 0.034656522839737233: 2, 0.034226902014129028: 2, 0.033668461235856352: 2, 0.033487740086479409: 2, 0.03347487285400437: 2, 0.033388157504707881: 2, 0.033265487187098638: 2, 0.033233523428976022: 2, 0.033069753509493406: 2, 0.032813696965658619: 2, 0.032803678147802537: 2, 0.03237243629469503: 2, 0.032302594490202723: 2, 0.032163503842825271: 2, 0.03209422708406659: 2, 0.032069683733280459: 2, 0.031815538650179165: 2, 0.03125682151263065: 2, 0.031094009826730915: 2, 0.031038709560049168: 2, 0.030972485491185503: 2, 0.030692942665089453: 2, 0.030546334073402841: 2, 0.030433291058258032: 2, 0.030258480093492725: 2, 0.030236494052204282: 2, 0.030129743030655274: 2, 0.030101125242712922: 2, 0.029973267719593286: 2, 0.029934529976967977: 2, 0.029887950724252065: 2, 0.029464361327434671: 2, 0.029360185046399291: 2, 0.029272658837426781: 2, 0.029161664743818295: 2, 0.029057604791215604: 2, 0.028984851620883781: 2, 0.028966835454076523: 2, 0.028956395386967593: 2, 0.028739367097613076: 2, 0.028658903143882124: 2, 0.028568607082982655: 2, 0.028207821540778451: 2, 0.028032154239898532: 2, 0.027981558214049882: 2, 0.027711828791906829: 2, 0.027571362823474395: 2, 0.0275150601844339: 2, 0.027469240286427544: 2, 0.027124465039549711: 2, 0.027074538825521549: 2, 0.02704606391966255: 2, 0.026930985109899958: 2, 0.026580338190179603: 2, 0.026550189665610392: 2, 0.026273601012234249: 2, 0.026244037305645215: 2, 0.02624238415848193: 2, 0.026038078566722148: 2, 0.026020313983835079: 2, 0.025982404687705549: 2, 0.025946466523948358: 2, 0.025716969419702487: 2, 0.025693877040050772: 2, 0.025528530867631891: 2, 0.025282901737092061: 2, 0.025141582623916491: 2, 0.024981943477046263: 2, 0.024978028120975659: 2, 0.024690773622351201: 2, 0.024293285972813404: 2, 0.024262689667631246: 2, 0.024183810069734923: 2, 0.024133227100191786: 2, 0.024113748193303638: 2, 0.024092465504435067: 2, 0.023747200019187238: 2, 0.023572352734756739: 2, 0.023514258630172227: 2, 0.023424201929088: 2, 0.023338344611193031: 2, 0.023242424173692326: 2, 0.023020517709589225: 2, 0.023007249523533509: 2, 0.022617593607493863: 2, 0.021845282091545425: 2, 0.021830607584929874: 2, 0.021495673913604338: 2, 0.021453675719133463: 2, 0.021347795999059671: 2, 0.021227913131231756: 2, 0.021194265030498982: 2, 0.021167784971172353: 2, 0.021087332373996327: 2, 0.020952938211394233: 2, 0.020548944788644857: 2, 0.020369560162020853: 2, 0.020363522816264565: 2, 0.020341498089823228: 2, 0.020202354907407898: 2, 0.02013887554514146: 2, 0.020124034128628118: 2, 0.019866994935407212: 2, 0.019783809038578754: 2, 0.01972270555356119: 2, 0.019608625907311376: 2, 0.019471386401400219: 2, 0.019397840358816192: 2, 0.019343039686288289: 2, 0.019027887208665387: 2, 0.019020157439731539: 2, 0.018506415431816556: 2, 0.018446777861531836: 2, 0.018256863319864546: 2, 0.018142149631280628: 2, 0.017612848400003232: 2, 0.017565847321855722: 2, 0.01729616395784641: 2, 0.01707243740458203: 2, 0.017013470570844638: 2, 0.016986946647452535: 2, 0.016847074064667691: 2, 0.016752216790326752: 2, 0.016657478906422524: 2, 0.016537878275713069: 2, 0.016417866524570904: 2, 0.016381996097417729: 2, 0.016298228351430497: 2, 0.016246640925254928: 2, 0.016022557003036932: 2, 0.016010007162800155: 2, 0.015858673935190404: 2, 0.015787252632169547: 2, 0.015679334512932998: 2, 0.015654805469795648: 2, 0.015602237838160362: 2, 0.015513129440489116: 2, 0.015506219528219982: 2, 0.015335647527340013: 2, 0.015267026904150785: 2, 0.015202290461522444: 2, 0.015031854390984308: 2, 0.015011813781381091: 2, 0.014885409909827587: 2, 0.014647346573926218: 2, 0.014635472994611562: 2, 0.014498162379759975: 2, 0.014444308902391737: 2, 0.014140492619839181: 2, 0.014035782279674669: 2, 0.014024437002288729: 2, 0.013838932793585952: 2, 0.013711415971019457: 2, 0.013553692869853421: 2, 0.013455436120546102: 2, 0.01339850515528393: 2, 0.013336354927470111: 2, 0.013225369755643361: 2, 0.013144172730425044: 2, 0.013076546292524978: 2, 0.012970937955499983: 2, 0.012944077820796832: 2, 0.012914124622157252: 2, 0.012802350854775539: 2, 0.012797007055580423: 2, 0.012604854840784094: 2, 0.012556160744959431: 2, 0.012443812462879214: 2, 0.01209134996790414: 2, 0.012082994451347358: 2, 0.011842194308326672: 2, 0.011792015872904552: 2, 0.011778185571306849: 2, 0.011690918620576645: 2, 0.011653773891454852: 2, 0.011609383877348533: 2, 0.01149855528595913: 2, 0.011324439011392008: 2, 0.010767448551637193: 2, 0.010623712629384264: 2, 0.010514000092283555: 2, 0.010401874893533456: 2, 0.0099471614908744153: 2, 0.0098178814289344701: 2, 0.0097843015810073104: 2, 0.0096116901758505641: 2, 0.0090917722884807338: 2, 0.0090810827256763912: 2, 0.0090454726458614014: 2, 0.0088234906939152254: 2, 0.0087903727540029411: 2, 0.0087252651530777339: 2, 0.0086946852462834023: 2, 0.0079060590021923262: 2, 0.0078414873233225643: 2, 0.0070380737074060718: 2, 0.0066443354992328663: 2, 154.61548375742092: 1, 118.40697147053334: 1, 99.635855270762946: 1, 80.893688820522286: 1, 74.725332239050445: 1, 70.414946697330478: 1, 68.924230413616513: 1, 68.821515676568694: 1, 68.696150934488116: 1, 66.936495513713851: 1, 63.60147169923615: 1, 60.61546326019139: 1, 56.61618835948611: 1, 55.242981968053783: 1, 54.094946088585608: 1, 52.167143067946824: 1, 48.973261705462036: 1, 48.234119089972474: 1, 48.029439104814024: 1, 45.451735549067983: 1, 45.448746817027292: 1, 42.180398574754172: 1, 42.075481668131744: 1, 41.841117935764217: 1, 41.642589239019181: 1, 41.390591280419912: 1, 41.271203933445207: 1, 40.277726988576354: 1, 38.808967788576965: 1, 38.598332790996011: 1, 38.125515808152393: 1, 37.88316335038833: 1, 37.730093302942095: 1, 37.235961980438304: 1, 37.095388102288332: 1, 36.781251736741552: 1, 36.488198642865612: 1, 35.670251397221058: 1, 33.743346418973282: 1, 33.508407086845658: 1, 33.464445462852616: 1, 33.155165936722568: 1, 32.936183104361106: 1, 32.546297895442351: 1, 32.047773140400018: 1, 31.422858216955465: 1, 30.649397105529459: 1, 30.438002626838003: 1, 30.373985109845517: 1, 29.863296103777962: 1, 29.619210279779857: 1, 29.170617681816161: 1, 28.139336451159402: 1, 27.908686795733868: 1, 27.895594354618833: 1, 27.719237626457115: 1, 27.269768874581636: 1, 26.916983896647707: 1, 26.874221833637048: 1, 26.821830313410501: 1, 26.237603430226077: 1, 25.961532059862556: 1, 25.936853419918421: 1, 25.756045290799172: 1, 25.474921301275451: 1, 24.906515170801505: 1, 24.674601672053015: 1, 24.615246498728055: 1, 24.432773538264069: 1, 24.291397423509345: 1, 24.275524580514574: 1, 24.126074814382104: 1, 23.851764809549628: 1, 23.610511382007605: 1, 23.491160666404014: 1, 23.467191156418096: 1, 23.388184949711164: 1, 23.277448796304139: 1, 22.989078348348517: 1, 22.963434395349882: 1, 22.492732334244327: 1, 22.211471444011945: 1, 21.953992967972706: 1, 21.710649092723138: 1, 21.663311880662718: 1, 21.587394692080974: 1, 21.488103658407592: 1, 21.407154775075199: 1, 20.984379882281061: 1, 20.94011951469427: 1, 20.794403991263557: 1, 20.657530247341366: 1, 20.457555380675945: 1, 20.450273828186493: 1, 20.427671840130781: 1, 20.392812756567405: 1, 20.386653407590387: 1, 20.306641141761006: 1, 19.969096811216602: 1, 19.856682380618878: 1, 19.819979314507108: 1, 19.508481425805556: 1, 19.409338924288129: 1, 19.345589233879569: 1, 19.319107589804002: 1, 19.037719445375423: 1, 19.005717382513087: 1, 18.966120542925108: 1, 18.894747896234851: 1, 18.859954889090432: 1, 18.782894959082704: 1, 18.690895464105793: 1, 18.689848551152505: 1, 18.674304622289743: 1, 18.617808587060907: 1, 18.482688607864958: 1, 18.412921897144397: 1, 18.405814041026389: 1, 18.35612936982168: 1, 18.349883010518003: 1, 18.306334687299469: 1, 18.289668113361049: 1, 18.196050941435661: 1, 18.195743830358285: 1, 18.166863146007579: 1, 17.924001147586903: 1, 17.825260038270308: 1, 17.794078776237118: 1, 17.768153997434975: 1, 17.640696812109027: 1, 17.536296487131228: 1, 17.459785465210796: 1, 17.3651993298093: 1, 17.361349619713547: 1, 17.276211092740471: 1, 17.141906588917692: 1, 17.080489527582376: 1, 17.05329943823202: 1, 16.803548857075675: 1, 16.770153817728634: 1, 16.745114754336321: 1, 16.696295019843856: 1, 16.662215002560949: 1, 16.59631344793678: 1, 16.575516366187745: 1, 16.574524275054443: 1, 16.480037995351083: 1, 16.307680543560149: 1, 16.221067080567057: 1, 16.220200179124912: 1, 16.106245550993609: 1, 16.085337171287229: 1, 16.029569001907124: 1, 15.948475200218512: 1, 15.891874304942062: 1, 15.82656541617393: 1, 15.697416999837774: 1, 15.697229787626512: 1, 15.513829386554221: 1, 15.489607181079981: 1, 15.421001522091647: 1, 15.384464386352517: 1, 15.179053801962382: 1, 15.153398127523181: 1, 15.081272038401622: 1, 15.075498473871614: 1, 15.006456162940774: 1, 14.973663995534048: 1, 14.929891187569611: 1, 14.915180134635118: 1, 14.911520664887039: 1, 14.889877053194926: 1, 14.851641916827258: 1, 14.796184910406888: 1, 14.78939546957403: 1, 14.710772348199121: 1, 14.684362525308883: 1, 14.553635199691451: 1, 14.545911519477569: 1, 14.493893206878933: 1, 14.486745075726914: 1, 14.395373951524467: 1, 14.389977136418826: 1, 14.379927658463449: 1, 14.379331098326565: 1, 14.360575666651172: 1, 14.359893651236217: 1, 14.346686685693369: 1, 14.238642716660324: 1, 14.201160671900746: 1, 14.190746454282435: 1, 14.096340239210845: 1, 14.06770500721133: 1, 14.036659045269467: 1, 14.017582739534046: 1, 13.994380647694229: 1, 13.964504406369901: 1, 13.954212902005601: 1, 13.947478664256684: 1, 13.940642178201314: 1, 13.852083673444673: 1, 13.829046748479991: 1, 13.80368282698538: 1, 13.745175789662426: 1, 13.736517283597355: 1, 13.722500978526522: 1, 13.688666898964492: 1, 13.665767050425544: 1, 13.634007660337364: 1, 13.577986415009875: 1, 13.552569248159163: 1, 13.541749889577426: 1, 13.524342400806024: 1, 13.438732303489962: 1, 13.411971708548499: 1, 13.403652613185765: 1, 13.343497357057473: 1, 13.267984385572547: 1, 13.223556758044976: 1, 13.213603529636581: 1, 13.210475480414075: 1, 13.182209972915034: 1, 13.167214982883403: 1, 13.152311253186118: 1, 13.114461664287557: 1, 13.091833618996562: 1, 13.087821976267316: 1, 13.023908925306342: 1, 13.005966660114344: 1, 13.003498877152804: 1, 13.001364037279435: 1, 12.981835528541461: 1, 12.96938255970711: 1, 12.935734312774761: 1, 12.909139693119556: 1, 12.840371680392392: 1, 12.801878335519378: 1, 12.764336594511882: 1, 12.752366166405666: 1, 12.748575164245777: 1, 12.747662748863949: 1, 12.72496485640127: 1, 12.716571810154766: 1, 12.707421783820758: 1, 12.61470699513581: 1, 12.585672025182323: 1, 12.570825382698171: 1, 12.556022259240857: 1, 12.531669276615558: 1, 12.521670867534384: 1, 12.509831800861905: 1, 12.490925930761886: 1, 12.42659253408025: 1, 12.422695420664361: 1, 12.365949780017457: 1, 12.341820162208307: 1, 12.302459366051155: 1, 12.295058310422066: 1, 12.287659462405911: 1, 12.22672240761403: 1, 12.220766993947546: 1, 12.208754390758955: 1, 12.171537719526913: 1, 12.128683848058849: 1, 12.120784535095128: 1, 12.103569608825149: 1, 12.081394897926987: 1, 12.079805569191779: 1, 12.048363257106415: 1, 11.929031983028743: 1, 11.857523665492863: 1, 11.834850837714988: 1, 11.8095689183431: 1, 11.790812931736378: 1, 11.753873487725091: 1, 11.738224639814813: 1, 11.71972218609984: 1, 11.718778940380219: 1, 11.669975768789547: 1, 11.665474119357107: 1, 11.66528882264006: 1, 11.636676605933499: 1, 11.636660788947109: 1, 11.613755708052675: 1, 11.601138022346545: 1, 11.555900651211894: 1, 11.520357126272003: 1, 11.518062563177482: 1, 11.506932361511371: 1, 11.478389347474883: 1, 11.460537339059105: 1, 11.382173042804379: 1, 11.379675250033184: 1, 11.339612740436198: 1, 11.314230378514374: 1, 11.276302203194389: 1, 11.259708037994844: 1, 11.255902201334088: 1, 11.242867496151433: 1, 11.227778261124751: 1, 11.171898198664639: 1, 11.171084846790301: 1, 11.13479764163613: 1, 11.131435559399282: 1, 11.118390988418234: 1, 11.077465152223017: 1, 11.054397024547839: 1, 11.042518119745443: 1, 10.946851811926088: 1, 10.931938092224707: 1, 10.931834348164809: 1, 10.911902386969855: 1, 10.883037467363971: 1, 10.874248514130016: 1, 10.858295575451685: 1, 10.831272558570264: 1, 10.819903659968718: 1, 10.807473717838837: 1, 10.73119516665543: 1, 10.689828239331105: 1, 10.609923836408138: 1, 10.560796866527372: 1, 10.558130151170934: 1, 10.527540561357659: 1, 10.51322365466716: 1, 10.491976678473765: 1, 10.479019859583524: 1, 10.477310757402257: 1, 10.427937981179021: 1, 10.424474748207979: 1, 10.416314568157865: 1, 10.395732669123792: 1, 10.376502893919429: 1, 10.335345643466054: 1, 10.305868921067557: 1, 10.278394249416783: 1, 10.272104923053375: 1, 10.250925172875515: 1, 10.248910963243176: 1, 10.226575244105799: 1, 10.221555552419732: 1, 10.207075942569478: 1, 10.204513552205682: 1, 10.18418860604122: 1, 10.182262402368536: 1, 10.165631033120057: 1, 10.1625934187597: 1, 10.150751707790489: 1, 10.111023629006631: 1, 10.100964918335738: 1, 10.084468772119591: 1, 10.055100857839982: 1, 10.010850837927617: 1, 9.969685382447766: 1, 9.9473152413435155: 1, 9.9251152068332633: 1, 9.9214675773775678: 1, 9.913817902186258: 1, 9.8973136241566522: 1, 9.8877239511838546: 1, 9.88519593208229: 1, 9.8083725812614748: 1, 9.8077659820889203: 1, 9.8048513668904054: 1, 9.7850731972419354: 1, 9.7652022122624214: 1, 9.7060937256095574: 1, 9.6619288378748074: 1, 9.6604621308714123: 1, 9.638000986682373: 1, 9.6365902274232909: 1, 9.6336245512928329: 1, 9.5949512499942955: 1, 9.5720969975203154: 1, 9.5716779765426363: 1, 9.5701150834858026: 1, 9.565222458287904: 1, 9.5638389296435733: 1, 9.5454718444785414: 1, 9.543142123577395: 1, 9.5305962704991316: 1, 9.5056567520909159: 1, 9.5053508788894767: 1, 9.5043080146863907: 1, 9.5026329209786997: 1, 9.4917193991419548: 1, 9.4877506885555487: 1, 9.485870694664154: 1, 9.4763884409487336: 1, 9.4345080661421559: 1, 9.4343241840795073: 1, 9.4318713044208717: 1, 9.3952180635498213: 1, 9.3883473981351582: 1, 9.3833687725030437: 1, 9.3622550699168503: 1, 9.3479081422708816: 1, 9.3423048774387745: 1, 9.329412408349663: 1, 9.3272852155342587: 1, 9.3053888188092326: 1, 9.3030104109540517: 1, 9.2920326253895862: 1, 9.2911988045967213: 1, 9.2725602583608442: 1, 9.2708890105748871: 1, 9.2485719837388896: 1, 9.2186216217386701: 1, 9.2169500029274065: 1, 9.2157670167321033: 1, 9.2135647025771803: 1, 9.201735361441532: 1, 9.1849194316646869: 1, 9.1831820879785013: 1, 9.1501316717773484: 1, 9.146417693991113: 1, 9.1157379126795881: 1, 9.1130706006866209: 1, 9.1102005502344436: 1, 9.1011869336264333: 1, 9.1011360068136558: 1, 9.092740019510348: 1, 9.0665302398342256: 1, 9.06488488881471: 1, 9.0390606198579082: 1, 9.0363923743818777: 1, 9.031559971443869: 1, 9.0254315999901742: 1, 9.0179492936639942: 1, 9.0174756322894876: 1, 9.0051777050574504: 1, 8.9864532448830765: 1, 8.9713132196197165: 1, 8.9626900024254539: 1, 8.9531200085786349: 1, 8.945384463899904: 1, 8.9367888901683958: 1, 8.9296146422353999: 1, 8.9294456250574896: 1, 8.9015825064777125: 1, 8.8946410385230017: 1, 8.8455756582504037: 1, 8.821617291055631: 1, 8.8213795739725498: 1, 8.7930078024729497: 1, 8.7913294714744747: 1, 8.7907412759324099: 1, 8.7882157372582697: 1, 8.7877340729754625: 1, 8.787584324099539: 1, 8.7802438371423985: 1, 8.760724272974544: 1, 8.7297869940894444: 1, 8.7226160898371656: 1, 8.7212742754904564: 1, 8.6973117320258275: 1, 8.6881161525726025: 1, 8.6824527387780339: 1, 8.6552280821392369: 1, 8.6374268269722663: 1, 8.6363974915003237: 1, 8.6339502744079528: 1, 8.6324049354585863: 1, 8.6275211612088043: 1, 8.6203659877548606: 1, 8.6130871072582078: 1, 8.6050169469474103: 1, 8.6009618052502876: 1, 8.589545528763459: 1, 8.5875857402116083: 1, 8.5781063989614861: 1, 8.5756526534903834: 1, 8.5629592801060692: 1, 8.5558728041785859: 1, 8.5445756568384095: 1, 8.5349552707335263: 1, 8.511707873671039: 1, 8.4977352215664403: 1, 8.495936196756718: 1, 8.4906071203022098: 1, 8.4335241074764369: 1, 8.4304898135360595: 1, 8.4272311465345755: 1, 8.4250244748324192: 1, 8.4147836638249398: 1, 8.4070750577872779: 1, 8.370811352471712: 1, 8.3656170124890821: 1, 8.3202590547347786: 1, 8.3101503977595499: 1, 8.3063222526525031: 1, 8.3051684706175859: 1, 8.3034058941096767: 1, 8.2996864355474607: 1, 8.2978752093172083: 1, 8.2804940935488069: 1, 8.2716028810891764: 1, 8.2699541484183943: 1, 8.2649906253979353: 1, 8.2530957262786195: 1, 8.2503056606186007: 1, 8.2103211072774567: 1, 8.2085713310151558: 1, 8.2024608216973345: 1, 8.1939737339949072: 1, 8.1939120581993183: 1, 8.1936993943215892: 1, 8.1927485320937237: 1, 8.160229706251938: 1, 8.148666513586388: 1, 8.1465809871430501: 1, 8.1310460382474865: 1, 8.1123943998312509: 1, 8.0981892612582289: 1, 8.0894438365715757: 1, 8.0682114341236257: 1, 8.0305889493977123: 1, 8.0204222442192243: 1, 8.0146851921559605: 1, 8.0146119230719695: 1, 8.0118148130991766: 1, 8.0030437481278671: 1, 8.0016019099542852: 1, 7.9910997457169293: 1, 7.9710236987266692: 1, 7.9622732699808365: 1, 7.9599759859843626: 1, 7.9593988037284085: 1, 7.9578808549061488: 1, 7.9553897515517855: 1, 7.9507913484169217: 1, 7.9482791419602981: 1, 7.9234086610953929: 1, 7.9064213829543499: 1, 7.8982328901254144: 1, 7.8936095866988785: 1, 7.8901784848384882: 1, 7.8865158443225605: 1, 7.8839019671873043: 1, 7.8790360459504729: 1, 7.8636397494516048: 1, 7.8167999335366449: 1, 7.816243509040814: 1, 7.8160503156112959: 1, 7.7911402264533383: 1, 7.7910927137389177: 1, 7.7872156914255859: 1, 7.7770810270066519: 1, 7.75413688457955: 1, 7.7438349384199139: 1, 7.7138498915148475: 1, 7.6537938244324568: 1, 7.6469338045694037: 1, 7.6426215753808684: 1, 7.6339954930566236: 1, 7.629296268574242: 1, 7.628328110425195: 1, 7.6139486885383469: 1, 7.5983244207561942: 1, 7.591414548907732: 1, 7.5845724148876386: 1, 7.5683987368324646: 1, 7.5448839340876033: 1, 7.5263000947519814: 1, 7.5222146968360626: 1, 7.5166428522078723: 1, 7.4991911140870027: 1, 7.483182748883042: 1, 7.47006711644904: 1, 7.4700372368024972: 1, 7.4698077915759189: 1, 7.4307545386416525: 1, 7.4282484501939159: 1, 7.4229107145284923: 1, 7.4068268013568463: 1, 7.3996039961111286: 1, 7.3964718838917856: 1, 7.3731581754022963: 1, 7.3715072322705613: 1, 7.3654639023313129: 1, 7.3633826044595079: 1, 7.2915660418019703: 1, 7.2881112940540351: 1, 7.2832644669835362: 1, 7.2762829719852418: 1, 7.2530185439629795: 1, 7.251360738715789: 1, 7.2472476029198516: 1, 7.230859570296067: 1, 7.2294565169165228: 1, 7.2181801146251665: 1, 7.2172393542397355: 1, 7.1981255775563726: 1, 7.1931287916782169: 1, 7.1894408616870118: 1, 7.1866514090108398: 1, 7.1684362189063418: 1, 7.1666439419315235: 1, 7.156821988050404: 1, 7.1487901580310229: 1, 7.1387309945460888: 1, 7.1323555139756554: 1, 7.1204173751410167: 1, 7.1067416832613635: 1, 7.0825219394319188: 1, 7.0809132093466021: 1, 7.0662514087665782: 1, 7.0604697056344312: 1, 7.0542981010701977: 1, 7.0507647239843205: 1, 7.0503733958874122: 1, 7.0498028301492432: 1, 7.0390785260713358: 1, 7.0387968906852763: 1, 7.0306275660156636: 1, 7.020671034107826: 1, 7.0194090254355279: 1, 7.0173752653267574: 1, 7.0170995405208032: 1, 7.0114330921334007: 1, 7.0081724918527977: 1, 6.996665802152128: 1, 6.9907625932551793: 1, 6.9868587356847014: 1, 6.9866977253412976: 1, 6.9860634230888445: 1, 6.9821457992090332: 1, 6.954441270537628: 1, 6.9453812264828887: 1, 6.9395109997344919: 1, 6.9300599313662561: 1, 6.9236698491163304: 1, 6.9194692757771765: 1, 6.9112936812063008: 1, 6.9062542149035373: 1, 6.8704278789927296: 1, 6.8674742198144711: 1, 6.8605055917529398: 1, 6.8483014577031556: 1, 6.8399877046725059: 1, 6.8311896418184137: 1, 6.8241311132873035: 1, 6.8197976983372914: 1, 6.8179515199926808: 1, 6.8169225609240351: 1, 6.8158595059054958: 1, 6.8022777028609456: 1, 6.7976621477341688: 1, 6.7945261326127238: 1, 6.7927117017354046: 1, 6.7922025919211828: 1, 6.7914138183010735: 1, 6.7846049700850433: 1, 6.7809278483605997: 1, 6.769928911233329: 1, 6.7620598557773928: 1, 6.7549099038181026: 1, 6.7535083085617744: 1, 6.7396370369471112: 1, 6.7178990909274559: 1, 6.7090505199383186: 1, 6.6793985634740753: 1, 6.6632045283854966: 1, 6.6621387330349116: 1, 6.641158271841066: 1, 6.6357653351038675: 1, 6.6211570393768682: 1, 6.614576536538463: 1, 6.6095709776370439: 1, 6.6093903909231111: 1, 6.5981250217794498: 1, 6.5951306751979999: 1, 6.595118052333234: 1, 6.5906281395297936: 1, 6.5901808637257595: 1, 6.5858367055404194: 1, 6.5856547122782798: 1, 6.5835040276272796: 1, 6.5732023960755948: 1, 6.5706137574427759: 1, 6.5669901601528702: 1, 6.5554003460146175: 1, 6.5527071716405727: 1, 6.5515783869951241: 1, 6.5460541111164154: 1, 6.544992171723738: 1, 6.5252448586805052: 1, 6.5236027396817153: 1, 6.5235681109615387: 1, 6.5208219619711283: 1, 6.5175045918353245: 1, 6.5167167574744234: 1, 6.501244907796651: 1, 6.4975379398256985: 1, 6.4862798524250298: 1, 6.473560042689444: 1, 6.4685909634310113: 1, 6.4606890098607925: 1, 6.4591000550533515: 1, 6.4565739660277757: 1, 6.4457790040922802: 1, 6.4428990093345755: 1, 6.4402185693627567: 1, 6.4347830466221829: 1, 6.4334944152607036: 1, 6.4305893184016583: 1, 6.4275837390211743: 1, 6.4234943047604514: 1, 6.4178672762524061: 1, 6.4146947884526861: 1, 6.4103359872056416: 1, 6.3924294378639788: 1, 6.3921616475760601: 1, 6.3827700225370689: 1, 6.3624368346865934: 1, 6.352385319785057: 1, 6.3509063588666468: 1, 6.3458033942917051: 1, 6.3288152050317343: 1, 6.3253790301010477: 1, 6.3133579958421668: 1, 6.3121150145345135: 1, 6.3076439300123486: 1, 6.3049181598191577: 1, 6.2843038730884304: 1, 6.2805998195819548: 1, 6.2800746700478953: 1, 6.2686315678575983: 1, 6.2612136798682592: 1, 6.2609885680331452: 1, 6.2402805872379332: 1, 6.2306734382299602: 1, 6.2289677212943362: 1, 6.2249266327466666: 1, 6.2199930064960345: 1, 6.214403378976364: 1, 6.2135845123962978: 1, 6.2039880036868515: 1, 6.2021456515791291: 1, 6.2020154031913162: 1, 6.20082321397659: 1, 6.1895634103843191: 1, 6.1880186592266719: 1, 6.1838112328029506: 1, 6.1643934375117846: 1, 6.1533389475003268: 1, 6.1506379611072575: 1, 6.149442374913213: 1, 6.1461729155443008: 1, 6.1447247833564473: 1, 6.1363682621866715: 1, 6.1306504647135212: 1, 6.1299925168656166: 1, 6.1284951999301658: 1, 6.1176553138505598: 1, 6.1154247505566355: 1, 6.112508732995928: 1, 6.1039214986031443: 1, 6.1024094850150457: 1, 6.1008553066593771: 1, 6.0987100347708729: 1, 6.088176009908393: 1, 6.0762943090095467: 1, 6.0669422292882: 1, 6.0621078521326366: 1, 6.0504982017823075: 1, 6.0460857983532925: 1, 6.0431705161282334: 1, 6.0430852012347813: 1, 6.0418485088192826: 1, 6.0417342900113535: 1, 6.0283014130521391: 1, 6.0248435370427273: 1, 6.0197982765418221: 1, 6.019186640637491: 1, 6.0102447064933466: 1, 6.0075209380428705: 1, 6.0013793521530472: 1, 5.9965858952021867: 1, 5.9765427018795556: 1, 5.9715663576333107: 1, 5.9598799561542561: 1, 5.9532164190211052: 1, 5.9448679243756066: 1, 5.9443609390555032: 1, 5.9335889036658633: 1, 5.9325353926126452: 1, 5.9261379789811697: 1, 5.9241418441630067: 1, 5.9164100132680977: 1, 5.9138227812867532: 1, 5.9033179178933066: 1, 5.8978931994363641: 1, 5.8951145281312609: 1, 5.8847239311993453: 1, 5.8800309306625467: 1, 5.8787954984202857: 1, 5.8787628635856661: 1, 5.8770233141258181: 1, 5.8722363415495726: 1, 5.8717092589394957: 1, 5.8710346556619895: 1, 5.8613931147966341: 1, 5.8551453672953979: 1, 5.8512383898665261: 1, 5.8504070338853991: 1, 5.8501778308290016: 1, 5.8474461150353321: 1, 5.8389615384507794: 1, 5.8310471999931819: 1, 5.8306568399875829: 1, 5.8295861911865074: 1, 5.8284739228200033: 1, 5.8150612722307855: 1, 5.8053721884948537: 1, 5.8028678396264954: 1, 5.8027434494958383: 1, 5.8005483145529944: 1, 5.7975487290255288: 1, 5.7969797109642611: 1, 5.7959298384691147: 1, 5.7899975942234994: 1, 5.7724756726925737: 1, 5.7708501675801838: 1, 5.7701522675054147: 1, 5.7667044418485816: 1, 5.753560182174029: 1, 5.7531199216462827: 1, 5.7530063461302747: 1, 5.7520633352031965: 1, 5.7517245263240007: 1, 5.7513063998343315: 1, 5.7497404373312078: 1, 5.7458251631197026: 1, 5.7281944953409711: 1, 5.7213198963839131: 1, 5.7155685974846904: 1, 5.7123089676606291: 1, 5.707330727069583: 1, 5.7025282706163685: 1, 5.7021976394696008: 1, 5.6926215794655146: 1, 5.6917325743961236: 1, 5.6908022781931624: 1, 5.6880071578864522: 1, 5.6767584697804301: 1, 5.6738738256746526: 1, 5.6697125719924211: 1, 5.6625382539832607: 1, 5.6574836079868955: 1, 5.65387151428523: 1, 5.649584065849182: 1, 5.6485244975949263: 1, 5.6483619453065694: 1, 5.6470742603852901: 1, 5.6449877699245938: 1, 5.6417780616177939: 1, 5.6373687203734715: 1, 5.6329438215921117: 1, 5.6297701405683176: 1, 5.6284023617660734: 1, 5.6167279270854635: 1, 5.6120923377483045: 1, 5.6099943461030453: 1, 5.604744840364261: 1, 5.6014993536883031: 1, 5.5963460147042445: 1, 5.5961735714040417: 1, 5.5890537250978838: 1, 5.5853609341965518: 1, 5.5801268067186358: 1, 5.5765930038843265: 1, 5.5759861832127076: 1, 5.566778659292738: 1, 5.5582038621356276: 1, 5.5571533812890568: 1, 5.5545721435813977: 1, 5.5498104833405586: 1, 5.5486134683155548: 1, 5.5482583966490555: 1, 5.5474010542385193: 1, 5.5470725636820868: 1, 5.5420015387057999: 1, 5.5407575186049884: 1, 5.5397905207179123: 1, 5.5395421831725979: 1, 5.538931339040877: 1, 5.5337362035527189: 1, 5.5275077787525575: 1, 5.5199823973982829: 1, 5.515213285256638: 1, 5.5102859855319082: 1, 5.5096458528678252: 1, 5.5068897090346942: 1, 5.5065652627805504: 1, 5.4988082400225631: 1, 5.4955722133075433: 1, 5.4922554492594156: 1, 5.4899653493916754: 1, 5.4836610426037788: 1, 5.482724750885291: 1, 5.4795196328214661: 1, 5.4770876584219694: 1, 5.46484587368559: 1, 5.4584513657117428: 1, 5.457967808698668: 1, 5.4577229464971762: 1, 5.456769166917689: 1, 5.4548062789728782: 1, 5.4527736927959003: 1, 5.4509550723599451: 1, 5.4420105713418474: 1, 5.4272507861074502: 1, 5.4172314579618988: 1, 5.4144922820870072: 1, 5.4038863315779384: 1, 5.4035036113214305: 1, 5.3793899832491956: 1, 5.3785478941885625: 1, 5.3779418715368985: 1, 5.3709726371790412: 1, 5.3701527131548881: 1, 5.3698133598886146: 1, 5.3670921528215425: 1, 5.3627290658590168: 1, 5.3606315256099846: 1, 5.3605289228870276: 1, 5.3596667208262154: 1, 5.3585061081716576: 1, 5.3497653693895124: 1, 5.3474400395767292: 1, 5.347183571885239: 1, 5.3453496349984144: 1, 5.3426624088516963: 1, 5.328960566451185: 1, 5.3274249430315193: 1, 5.3272732904337525: 1, 5.3264373805437391: 1, 5.3205621481990679: 1, 5.3171849281269328: 1, 5.3131552327265883: 1, 5.3109858371883405: 1, 5.3042032495877169: 1, 5.3020513515692098: 1, 5.2909277149597562: 1, 5.289980897141545: 1, 5.2846782323264616: 1, 5.2798113702658886: 1, 5.2786223515586812: 1, 5.2752748552651401: 1, 5.2711067704673606: 1, 5.2682861358029038: 1, 5.2678975684967106: 1, 5.2526255423773973: 1, 5.2520253651242363: 1, 5.2485826676369101: 1, 5.2453828181091247: 1, 5.2426421686813187: 1, 5.2419965515899616: 1, 5.2375021882177579: 1, 5.2369139386342729: 1, 5.2324279335125086: 1, 5.2270581823917093: 1, 5.2199982534415277: 1, 5.2192573158568552: 1, 5.21869192021685: 1, 5.2111296365817985: 1, 5.2077541623559389: 1, 5.206517499823355: 1, 5.1953827093655303: 1, 5.1903885941936849: 1, 5.1863544463890809: 1, 5.1813019620195142: 1, 5.1791104560748833: 1, 5.1719222401813161: 1, 5.1697138325914516: 1, 5.1674487488465584: 1, 5.1647578818856559: 1, 5.1582867550385796: 1, 5.1535799517292542: 1, 5.1533705714572129: 1, 5.1510272545843394: 1, 5.1425827681077356: 1, 5.1390130560643117: 1, 5.136060406772998: 1, 5.1350463184320079: 1, 5.1193371438122313: 1, 5.1160905527266909: 1, 5.1066361879015147: 1, 5.1055487652583347: 1, 5.1032184593727932: 1, 5.1026964617443786: 1, 5.0984895436047744: 1, 5.097054458346892: 1, 5.0866960542293249: 1, 5.083121370417369: 1, 5.0803532053432781: 1, 5.078864722021704: 1, 5.0771462640523186: 1, 5.0760843248883658: 1, 5.0749707483550415: 1, 5.0745536365922579: 1, 5.0741104445532388: 1, 5.0712420405145417: 1, 5.0691541027952889: 1, 5.0689572495555: 1, 5.0687469605229012: 1, 5.0656324449536037: 1, 5.0639448063075054: 1, 5.0598119163320572: 1, 5.0593860825792758: 1, 5.0575471449693374: 1, 5.0553521768558758: 1, 5.049909967054564: 1, 5.0473473603771328: 1, 5.0462755578827938: 1, 5.0462385370202165: 1, 5.0461813996667866: 1, 5.0416130866165911: 1, 5.0394937673271487: 1, 5.0292078628531041: 1, 5.0289907805105365: 1, 5.0179898205054894: 1, 5.0174900432901035: 1, 5.0165757631073715: 1, 5.0126140759968605: 1, 5.0103350658371726: 1, 5.0074317686834018: 1, 5.0040680998040434: 1, 5.0019878853943522: 1, 5.0018844098278166: 1, 5.0010594314045127: 1, 4.9969988055632646: 1, 4.9945600284275304: 1, 4.9940071867594362: 1, 4.990355198249862: 1, 4.9844665313344221: 1, 4.9820121496968071: 1, 4.9775830751155938: 1, 4.9774899600453448: 1, 4.9770340734174718: 1, 4.9728824476659659: 1, 4.9721850997449648: 1, 4.9721396044973734: 1, 4.9705759286554496: 1, 4.9582061536101856: 1, 4.9565789042247852: 1, 4.9480994711035766: 1, 4.9459501169452285: 1, 4.9415934876440533: 1, 4.9411125659228547: 1, 4.9401679514939243: 1, 4.9395756469394003: 1, 4.9353193031131708: 1, 4.930271693223049: 1, 4.9251330726463198: 1, 4.9166595482864723: 1, 4.8985259480723213: 1, 4.8953030166363769: 1, 4.8944007288017346: 1, 4.8804261025906648: 1, 4.8698882216685471: 1, 4.8679536456591181: 1, 4.8622531622029674: 1, 4.8596212534676866: 1, 4.8590010750955459: 1, 4.8567277231133508: 1, 4.8533606021714419: 1, 4.8496279172583225: 1, 4.8449680784667883: 1, 4.8436829722229886: 1, 4.8362642154274287: 1, 4.8361664500456332: 1, 4.8295714734829644: 1, 4.8275862585221327: 1, 4.819669444611332: 1, 4.8160075316601949: 1, 4.8156913298453583: 1, 4.8148123296345426: 1, 4.8130973864918527: 1, 4.8119415543980972: 1, 4.8073991289923477: 1, 4.8063875431317893: 1, 4.8060163014340658: 1, 4.8055665403963301: 1, 4.8019794224757568: 1, 4.7988883407946092: 1, 4.7847061949589635: 1, 4.7837341053008444: 1, 4.7818467578512598: 1, 4.7816047467116247: 1, 4.7707529809845299: 1, 4.7705347220441929: 1, 4.7678378049538042: 1, 4.7675703264849396: 1, 4.7667345487078849: 1, 4.7602216639433328: 1, 4.7560178824585337: 1, 4.7558414551543127: 1, 4.7553605512733155: 1, 4.7544012110610172: 1, 4.7540556142727937: 1, 4.7486631784045903: 1, 4.7472770455235702: 1, 4.7453082055285405: 1, 4.7428448122530416: 1, 4.7425592466740802: 1, 4.7327803661995524: 1, 4.7275129240530545: 1, 4.725725169932474: 1, 4.7165726223936071: 1, 4.7160488431609053: 1, 4.7122957346725363: 1, 4.7028325515669822: 1, 4.7000217118752863: 1, 4.6991484003708148: 1, 4.6961702307270503: 1, 4.6886719342486147: 1, 4.680947962654904: 1, 4.6793824407416142: 1, 4.6788873937489805: 1, 4.6712794106810405: 1, 4.6704762455990565: 1, 4.6702530883240847: 1, 4.6669278060120698: 1, 4.6565929364469172: 1, 4.6549538444415113: 1, 4.6527958922156234: 1, 4.6520243966272874: 1, 4.6292109597069313: 1, 4.6180851375937353: 1, 4.6157797394753741: 1, 4.6145414000300766: 1, 4.6143924981192965: 1, 4.6140778560312077: 1, 4.6137050107104924: 1, 4.6104601324898953: 1, 4.6056565979836117: 1, 4.5978350761937241: 1, 4.5932371540140444: 1, 4.5924231867978493: 1, 4.589707451188076: 1, 4.5872669794534069: 1, 4.5812828912975334: 1, 4.5754494112936701: 1, 4.5737065550994132: 1, 4.5688195470252939: 1, 4.5685182136347064: 1, 4.5675590007245166: 1, 4.5614982667791821: 1, 4.5597665726947403: 1, 4.5573710624416961: 1, 4.5557052206478632: 1, 4.5551775455979566: 1, 4.5539404684997375: 1, 4.5524584824152949: 1, 4.5515354410288404: 1, 4.5508580283167985: 1, 4.5505666483767948: 1, 4.5499943277783448: 1, 4.5489140087850526: 1, 4.5466941240077707: 1, 4.5463218124364486: 1, 4.5461361088784642: 1, 4.5424151008069424: 1, 4.5415980502657494: 1, 4.5396785109456523: 1, 4.5359769991622505: 1, 4.5326089247442241: 1, 4.5281843143183691: 1, 4.5273675452074125: 1, 4.5226126747613344: 1, 4.5191708892747755: 1, 4.5152642554413926: 1, 4.514790184842048: 1, 4.5081694281846172: 1, 4.5010447499718325: 1, 4.495526625219556: 1, 4.4948840311405451: 1, 4.4943410718065389: 1, 4.4881135761772306: 1, 4.4816429463426202: 1, 4.4734082095902812: 1, 4.4724635395936705: 1, 4.470561537752209: 1, 4.4660620323058611: 1, 4.4656447796854142: 1, 4.45722471458856: 1, 4.4525039826501613: 1, 4.451100003680299: 1, 4.4485104489484808: 1, 4.4379257578757434: 1, 4.437466894683487: 1, 4.4363475518814504: 1, 4.4352799464325958: 1, 4.4267860506013168: 1, 4.422807309435119: 1, 4.4213992666651656: 1, 4.4201450689130786: 1, 4.4166421480098821: 1, 4.4126308516238: 1, 4.4125092276429339: 1, 4.4073333912343235: 1, 4.399256004481944: 1, 4.3964529090629769: 1, 4.3943691133434726: 1, 4.3919621685225003: 1, 4.391159277304336: 1, 4.389268064807788: 1, 4.3869708524739481: 1, 4.3801975419922243: 1, 4.3721654098709326: 1, 4.3718913703997213: 1, 4.3706806076055598: 1, 4.3691447695758141: 1, 4.3674510233191111: 1, 4.3654672475088665: 1, 4.3624344584415269: 1, 4.3607868224132682: 1, 4.3583258777830469: 1, 4.3582644522450664: 1, 4.3540524218388814: 1, 4.3530682365221853: 1, 4.3460289227698556: 1, 4.3455831321025702: 1, 4.3444944040820976: 1, 4.3398834543266034: 1, 4.3349929632298609: 1, 4.333774441087642: 1, 4.3219139242438311: 1, 4.3201570845943547: 1, 4.3196178798543423: 1, 4.3155614952451185: 1, 4.3134046142165294: 1, 4.3119185711858119: 1, 4.3099326370028033: 1, 4.3069734104025335: 1, 4.3056748640206006: 1, 4.3051353899144837: 1, 4.2965779967994173: 1, 4.2918847100296968: 1, 4.2829619011682842: 1, 4.2794891655591192: 1, 4.2756839045272725: 1, 4.2749462764968795: 1, 4.2724805936532899: 1, 4.2719566113457086: 1, 4.2694865986460746: 1, 4.2645700447365584: 1, 4.2645022533909707: 1, 4.2640161008531736: 1, 4.2618871124366402: 1, 4.260395676513431: 1, 4.2592799725692601: 1, 4.2581780973668231: 1, 4.2561993879999243: 1, 4.254589196687113: 1, 4.2509093921148908: 1, 4.2494538357890237: 1, 4.2414841315360148: 1, 4.2411957551743971: 1, 4.2362694772476646: 1, 4.2351224262800145: 1, 4.2327129872992817: 1, 4.2196354061579591: 1, 4.2187381256734291: 1, 4.2184402497579363: 1, 4.2137756786039082: 1, 4.2125192128108564: 1, 4.211641493593886: 1, 4.2064649394093996: 1, 4.2063747992477429: 1, 4.1992043360739997: 1, 4.1973118611800819: 1, 4.1970200183372803: 1, 4.1950361449319331: 1, 4.1901350359924647: 1, 4.1900588937404812: 1, 4.1886175244406809: 1, 4.187260401176486: 1, 4.1822390807547967: 1, 4.1808130520625753: 1, 4.1783974936664299: 1, 4.1696591263027889: 1, 4.1652156972075103: 1, 4.1635577228285028: 1, 4.15672172624636: 1, 4.1564233992236153: 1, 4.1547311128246047: 1, 4.1539864522629371: 1, 4.1502466535429043: 1, 4.1498048935096614: 1, 4.1472425865236016: 1, 4.1470741515868195: 1, 4.1411710149451313: 1, 4.1303912368917377: 1, 4.1290046228001378: 1, 4.1281657139774701: 1, 4.1218668786281203: 1, 4.1216625383925489: 1, 4.1197655404933844: 1, 4.115984742282393: 1, 4.1153688770579153: 1, 4.1137072083874218: 1, 4.1134820105328282: 1, 4.1073395069148653: 1, 4.1047154195965669: 1, 4.0967770356660145: 1, 4.0960872969508406: 1, 4.0923459340071808: 1, 4.0917546387697366: 1, 4.0881897826485707: 1, 4.0874560700838964: 1, 4.0869459350563329: 1, 4.0846554690119294: 1, 4.0846249309928853: 1, 4.0809284386815028: 1, 4.0773767686100415: 1, 4.070296234249402: 1, 4.0695265545783466: 1, 4.0668331698955669: 1, 4.0662623970354153: 1, 4.0622793091944143: 1, 4.0609563377375064: 1, 4.0552617105487174: 1, 4.0538875664588572: 1, 4.0516736716723782: 1, 4.0510183371666777: 1, 4.0449533525451775: 1, 4.0310565671040193: 1, 4.0303278908730311: 1, 4.0287740207760443: 1, 4.0285644599093811: 1, 4.028346278849952: 1, 4.0277085367012377: 1, 4.0247060445574503: 1, 4.0241685949540846: 1, 4.017787150899669: 1, 4.0073973408189554: 1, 4.0056546982856389: 1, 4.0035680389213502: 1, 4.0028993252191398: 1, 4.0016017000790818: 1, 4.0004109306885756: 1, 3.9931299506256108: 1, 3.9855490904426625: 1, 3.9826974798818031: 1, 3.9814819974947455: 1, 3.9805519126706317: 1, 3.9798623125375601: 1, 3.9730653656766517: 1, 3.9697359450734218: 1, 3.9681156727133562: 1, 3.9649632144320144: 1, 3.9648424434230773: 1, 3.9624799877428156: 1, 3.96069620880384: 1, 3.9588544368575831: 1, 3.9583276881351552: 1, 3.9563656349603575: 1, 3.9488996340573963: 1, 3.9482530299462835: 1, 3.9479473942350078: 1, 3.9430173773521315: 1, 3.9413093585682262: 1, 3.9412988065598649: 1, 3.9372969850666819: 1, 3.9367817276348003: 1, 3.9367233505759014: 1, 3.9332288349397277: 1, 3.9307868388250262: 1, 3.9298140360615244: 1, 3.9270564334370746: 1, 3.9244792936695725: 1, 3.923841838526799: 1, 3.9220409665481828: 1, 3.9215626919824884: 1, 3.9210643916082315: 1, 3.9173794095702124: 1, 3.9169906972010913: 1, 3.9168740241803519: 1, 3.911907073349937: 1, 3.9105293714011151: 1, 3.9099125604196949: 1, 3.9064364380174714: 1, 3.9025199813829801: 1, 3.9014264396201672: 1, 3.9012273590820392: 1, 3.9011510862636172: 1, 3.9007874238206255: 1, 3.8989461694617575: 1, 3.8973257685226561: 1, 3.8959370341724884: 1, 3.8955838620699894: 1, 3.8947794105320788: 1, 3.8933814018101383: 1, 3.8912488037417012: 1, 3.8846468417017905: 1, 3.8838657560766596: 1, 3.8780418550704074: 1, 3.8767985088615955: 1, 3.8757068710580564: 1, 3.8712247671755207: 1, 3.8700744725934206: 1, 3.8656229359767518: 1, 3.8634011659247087: 1, 3.8633486503817744: 1, 3.8608425189219222: 1, 3.85633841518329: 1, 3.8562405840019136: 1, 3.8540613980721665: 1, 3.8534435921050503: 1, 3.8534301771207153: 1, 3.8532036673560439: 1, 3.8513592916731278: 1, 3.8510305063609738: 1, 3.8461292175165744: 1, 3.8439156024572521: 1, 3.842586875733085: 1, 3.8407255972793601: 1, 3.8394233990612556: 1, 3.8387518358054886: 1, 3.8379276703816552: 1, 3.8370528382145053: 1, 3.8344965901900281: 1, 3.8309005081067737: 1, 3.8305679298458575: 1, 3.8268362207052298: 1, 3.8231324242553395: 1, 3.8198045393597329: 1, 3.8160915196215357: 1, 3.8137976438905041: 1, 3.8108987467309561: 1, 3.8081606912481845: 1, 3.8059437570651258: 1, 3.8056860508040797: 1, 3.805594058986228: 1, 3.8015013641810569: 1, 3.7993666830851183: 1, 3.7981918916361277: 1, 3.7977237696402693: 1, 3.7944447881662131: 1, 3.7884967793507749: 1, 3.7841302862039137: 1, 3.7781951988794704: 1, 3.7744535102498018: 1, 3.7734604639090992: 1, 3.7719089498979486: 1, 3.7714759654945844: 1, 3.7708343719721493: 1, 3.7694663242864701: 1, 3.7669118788770164: 1, 3.7551613991731365: 1, 3.7547633326704326: 1, 3.7537406087821497: 1, 3.7536015437186432: 1, 3.7515883116485607: 1, 3.7479085246774462: 1, 3.7451376106883916: 1, 3.7436644223086706: 1, 3.7430059330250258: 1, 3.7427054117541232: 1, 3.7416567664739606: 1, 3.740259917417069: 1, 3.7394963831391124: 1, 3.7367278432052848: 1, 3.7312983824356456: 1, 3.7276856798902793: 1, 3.7262351694985418: 1, 3.7257518008114845: 1, 3.7245966847929486: 1, 3.724246053713399: 1, 3.7228935995080801: 1, 3.7194480729836963: 1, 3.7168197923363553: 1, 3.714687855473795: 1, 3.7143054852499531: 1, 3.7131595452669743: 1, 3.7073116485286208: 1, 3.7057666799513904: 1, 3.700489963834884: 1, 3.6989893401358191: 1, 3.6967089654991883: 1, 3.6935289375269118: 1, 3.6934797025998551: 1, 3.692105693727167: 1, 3.6920829491184151: 1, 3.6909994376047086: 1, 3.6892666148240565: 1, 3.6884307180681666: 1, 3.686397239347289: 1, 3.6858501924858333: 1, 3.6840406356121802: 1, 3.6838452819727561: 1, 3.6811716751593213: 1, 3.6798434500961164: 1, 3.6748363986220975: 1, 3.6714169215101236: 1, 3.6664992683433755: 1, 3.6632013248738691: 1, 3.6607051133178419: 1, 3.6594512067806599: 1, 3.6565407239490115: 1, 3.6562803333940463: 1, 3.6546512405658635: 1, 3.6546445011265325: 1, 3.6539354206105781: 1, 3.6536614511989547: 1, 3.6535486602667717: 1, 3.6533510683853727: 1, 3.652012634993036: 1, 3.6508935203859063: 1, 3.6508018203102499: 1, 3.6490184082797614: 1, 3.648968015453868: 1, 3.6472302515297659: 1, 3.6465407991209484: 1, 3.6448702568218949: 1, 3.6441201579102525: 1, 3.6373159589271902: 1, 3.6371324145507931: 1, 3.634960569511676: 1, 3.6349072027778138: 1, 3.6309112044596681: 1, 3.63044852949605: 1, 3.6301624238754471: 1, 3.6298629277757279: 1, 3.6291469633527011: 1, 3.6283663617253685: 1, 3.6258127134026599: 1, 3.6256095629204972: 1, 3.624257009714746: 1, 3.6241428584335393: 1, 3.6230323365751333: 1, 3.6220405156466318: 1, 3.6199040879109012: 1, 3.6180149297383766: 1, 3.6175349193311428: 1, 3.6123375663521333: 1, 3.6074203374302667: 1, 3.6069678572535127: 1, 3.606016157898976: 1, 3.6056085073089021: 1, 3.6051613478566611: 1, 3.6051074391407458: 1, 3.6008811208584417: 1, 3.6000586624808752: 1, 3.5994082719522287: 1, 3.5912715717686505: 1, 3.5907975647754444: 1, 3.590503696812184: 1, 3.5897780533061088: 1, 3.589292391681199: 1, 3.5883711809009351: 1, 3.5877553094361132: 1, 3.5874634610645044: 1, 3.5859761005155728: 1, 3.5851193000544166: 1, 3.5823217817599882: 1, 3.5820511577294121: 1, 3.5814275147013759: 1, 3.5805250728637117: 1, 3.5766102027802411: 1, 3.5729152198401715: 1, 3.568407276977009: 1, 3.5678715269618002: 1, 3.5671227599240654: 1, 3.5670117708268227: 1, 3.5669121882452677: 1, 3.566866069350656: 1, 3.5659094976944474: 1, 3.560882060168935: 1, 3.5599699873615838: 1, 3.5543713312362275: 1, 3.5533239669589767: 1, 3.552290791608292: 1, 3.551155068468256: 1, 3.5510196463566137: 1, 3.5502539497780035: 1, 3.5497391037586183: 1, 3.5494537912482826: 1, 3.5490361364994265: 1, 3.5476701349475168: 1, 3.5461395610636544: 1, 3.5423394810933901: 1, 3.5418144655838386: 1, 3.5396352287080743: 1, 3.5376425260943698: 1, 3.533990803776196: 1, 3.533579649385493: 1, 3.533454130628455: 1, 3.5311665711838458: 1, 3.5211211316851725: 1, 3.5164462329044155: 1, 3.5149422495029494: 1, 3.5141503681273281: 1, 3.5140172123725804: 1, 3.5100857759635899: 1, 3.5088172613865476: 1, 3.5057666201512476: 1, 3.5056218414111: 1, 3.4999710451202914: 1, 3.499437866373325: 1, 3.4984489551249918: 1, 3.4984176688250623: 1, 3.4981254487709039: 1, 3.495780029408345: 1, 3.4910164660812057: 1, 3.4870444608005511: 1, 3.486806411598081: 1, 3.4843582597938902: 1, 3.4840150778514327: 1, 3.4818358214506739: 1, 3.4813206697904473: 1, 3.4812615835222211: 1, 3.4794388887210865: 1, 3.478914833879831: 1, 3.4785739145436865: 1, 3.4782978063861258: 1, 3.4741485121886413: 1, 3.4706160055137252: 1, 3.469391988331997: 1, 3.4693224621332193: 1, 3.4624133890813105: 1, 3.4606002177894757: 1, 3.4565005325606366: 1, 3.4557922290918248: 1, 3.4555754695969463: 1, 3.4546864631816434: 1, 3.4530902531806449: 1, 3.4528249221996594: 1, 3.4523507147669212: 1, 3.450044389791004: 1, 3.4472820599343743: 1, 3.4438754806183947: 1, 3.4431616514084955: 1, 3.4410086795934864: 1, 3.4401612085412157: 1, 3.4383851264690453: 1, 3.4375445383202567: 1, 3.4374310743171126: 1, 3.4370165535833999: 1, 3.4367708542613862: 1, 3.4347748300571115: 1, 3.4346566008005248: 1, 3.4329618613918869: 1, 3.4322568430947276: 1, 3.4316911303294044: 1, 3.4302357625140467: 1, 3.4248660446930534: 1, 3.4246115062572962: 1, 3.4225016451915247: 1, 3.4224658892318454: 1, 3.4205239895981947: 1, 3.420330636761165: 1, 3.4202815110268041: 1, 3.4197440610175405: 1, 3.418717606500989: 1, 3.4181184356875165: 1, 3.4171925409779411: 1, 3.4154493688662413: 1, 3.4135913528138078: 1, 3.4112226071427822: 1, 3.4102699284873155: 1, 3.4042408392576133: 1, 3.4023658276868924: 1, 3.3946813449418261: 1, 3.3946568339409917: 1, 3.3935142324198915: 1, 3.3931670433187318: 1, 3.3927923964543507: 1, 3.3926929253425748: 1, 3.3922242845418937: 1, 3.3921117681397259: 1, 3.3912864523643513: 1, 3.3899229835020677: 1, 3.3850713410352142: 1, 3.3848308716856645: 1, 3.3841575252437646: 1, 3.3813963463170063: 1, 3.3813124545609572: 1, 3.3811280982180403: 1, 3.3807497629538035: 1, 3.3804635700604191: 1, 3.3735004226652006: 1, 3.3721306893457377: 1, 3.3709073142066082: 1, 3.3708491353674437: 1, 3.3681198658874685: 1, 3.3679076070415035: 1, 3.3663010363274348: 1, 3.3659765681540534: 1, 3.3641620049902956: 1, 3.3640531129372002: 1, 3.3618722477315042: 1, 3.3612557436460242: 1, 3.3604033794970869: 1, 3.3603794571137469: 1, 3.3584812565075741: 1, 3.3571475004541504: 1, 3.3568806197727339: 1, 3.354706485996239: 1, 3.354274489439403: 1, 3.3530127468505802: 1, 3.352049024595837: 1, 3.3511611469399001: 1, 3.347913801406694: 1, 3.3450837547198113: 1, 3.3436133411579934: 1, 3.3436067095598601: 1, 3.3435540915536568: 1, 3.3385615143743173: 1, 3.338555988910529: 1, 3.337382937338544: 1, 3.3360273363088835: 1, 3.3327252083586965: 1, 3.3317498085684103: 1, 3.3317474735091728: 1, 3.3313558023629235: 1, 3.3305074314304308: 1, 3.3303570859118969: 1, 3.3285427706228292: 1, 3.3270813934636205: 1, 3.326428578487449: 1, 3.3259857922906373: 1, 3.325308705316175: 1, 3.3239317290222372: 1, 3.3238531381482646: 1, 3.3221212055395886: 1, 3.3209408181808904: 1, 3.3207374241890091: 1, 3.3203557030934476: 1, 3.319943884287103: 1, 3.3124509836114857: 1, 3.3118073387553775: 1, 3.3108714011948481: 1, 3.3104508021222432: 1, 3.3089053887709547: 1, 3.3067383068000709: 1, 3.3061243782328096: 1, 3.306043604380525: 1, 3.3053317628162007: 1, 3.3034889394340414: 1, 3.3029485988012977: 1, 3.2998338064421429: 1, 3.2998188841645568: 1, 3.2993204280978023: 1, 3.2988022141623907: 1, 3.2953415397270347: 1, 3.2952031054361997: 1, 3.294193867891257: 1, 3.2907192860307406: 1, 3.2899280008513405: 1, 3.2848805367497929: 1, 3.2830643086359337: 1, 3.2823959049005174: 1, 3.281222411777033: 1, 3.2793389939830941: 1, 3.2780330566570317: 1, 3.273980744561086: 1, 3.2739084560551044: 1, 3.2737936829575514: 1, 3.26841386119421: 1, 3.2632453150477061: 1, 3.2627068258548668: 1, 3.2607373610870445: 1, 3.2543168183276072: 1, 3.2511810526700677: 1, 3.250601981620028: 1, 3.2485410119381459: 1, 3.2478615441807781: 1, 3.2468671197070798: 1, 3.2463776754331781: 1, 3.2434925141646311: 1, 3.2433060911877503: 1, 3.2429355178059467: 1, 3.2418881141795044: 1, 3.2416534452852854: 1, 3.241312562120521: 1, 3.2385430222519198: 1, 3.2366130905564714: 1, 3.2363354068849333: 1, 3.2316347413460811: 1, 3.2314350225132928: 1, 3.2219172462500838: 1, 3.2147872069228689: 1, 3.2088061370130951: 1, 3.2083767692805032: 1, 3.2073198889380383: 1, 3.2058147842003599: 1, 3.2034854112928897: 1, 3.2011543904744877: 1, 3.1976542539769355: 1, 3.1948609976081648: 1, 3.1936820980824314: 1, 3.1932366393614386: 1, 3.1930021765680729: 1, 3.1914897360054777: 1, 3.1889755247696447: 1, 3.1884920846539293: 1, 3.1870692772313522: 1, 3.1865340280807022: 1, 3.1858593448303316: 1, 3.1858322709880307: 1, 3.1844108340450483: 1, 3.184379599478437: 1, 3.1842663861584923: 1, 3.1814344040764615: 1, 3.1808256703263322: 1, 3.1802858893076666: 1, 3.1798231270444148: 1, 3.1772954857743341: 1, 3.1768605694636145: 1, 3.1761930677478696: 1, 3.1751404801304117: 1, 3.1720724996122809: 1, 3.171851036467217: 1, 3.1718317051700806: 1, 3.1692528073672679: 1, 3.1683216582517484: 1, 3.1674500102932068: 1, 3.1640277633465632: 1, 3.1632047994063295: 1, 3.1615804142118913: 1, 3.1579828864383717: 1, 3.1561841220153108: 1, 3.1535352981700453: 1, 3.1532834436337054: 1, 3.1531238911160324: 1, 3.1522674399199162: 1, 3.1514645475220564: 1, 3.1453118478051931: 1, 3.1441779471214875: 1, 3.1358923160054264: 1, 3.1350776533402858: 1, 3.133975779958762: 1, 3.1335313283182735: 1, 3.1315085643123735: 1, 3.1285571469849094: 1, 3.128336780058945: 1, 3.1265620746710545: 1, 3.124299876288569: 1, 3.1232233908290747: 1, 3.1229249419373852: 1, 3.1227134517046213: 1, 3.120917756115245: 1, 3.1189873984695091: 1, 3.117716297060384: 1, 3.1172961141833073: 1, 3.1069624455998976: 1, 3.1062359962862538: 1, 3.1060665020348881: 1, 3.1058460762264937: 1, 3.1040926198159284: 1, 3.1026516319808457: 1, 3.102463514866924: 1, 3.1010991804953596: 1, 3.1002413319587658: 1, 3.1000899257641632: 1, 3.1000803537489494: 1, 3.0968828853745092: 1, 3.0966221930717563: 1, 3.0942805882073232: 1, 3.0930337525222424: 1, 3.0922467095967927: 1, 3.0919997234688861: 1, 3.0909097008771065: 1, 3.0902671632363869: 1, 3.0883546666714863: 1, 3.0871602023960456: 1, 3.0845497196248113: 1, 3.0828410099588761: 1, 3.0816878352635242: 1, 3.0814887043157801: 1, 3.0808170952461271: 1, 3.0757685306785976: 1, 3.0724135815262863: 1, 3.0716583741514283: 1, 3.0703674363966331: 1, 3.0688277453175417: 1, 3.0683813555208626: 1, 3.0679201368885485: 1, 3.0669892201562501: 1, 3.0653765793521424: 1, 3.0653458820543302: 1, 3.0627649382519548: 1, 3.0622018297369991: 1, 3.0607280712122855: 1, 3.0583951217277923: 1, 3.0582461509147705: 1, 3.0564556275517569: 1, 3.0557654320840806: 1, 3.0534983719771427: 1, 3.0523374680150268: 1, 3.0521301630691831: 1, 3.0515225466539921: 1, 3.0510251832276887: 1, 3.0489724441100585: 1, 3.0457090640724322: 1, 3.0441736504181223: 1, 3.0439961568172342: 1, 3.0439019464244672: 1, 3.0385708735440216: 1, 3.0340136594897378: 1, 3.0331767148478277: 1, 3.0325809923547955: 1, 3.0308727983354604: 1, 3.0308463983713172: 1, 3.0296509381070034: 1, 3.0285597120965941: 1, 3.0283837270762977: 1, 3.0261730334003563: 1, 3.0255253476438804: 1, 3.0229758151485999: 1, 3.0217364638053352: 1, 3.019524424296959: 1, 3.0188865441208765: 1, 3.0187635772608319: 1, 3.0178576008191791: 1, 3.0167522895949634: 1, 3.0166975135449765: 1, 3.0165746058713525: 1, 3.0157038278660533: 1, 3.0150552587512469: 1, 3.0129094527062157: 1, 3.007827316108413: 1, 3.0074321602677623: 1, 3.0065887884651361: 1, 3.0039746466185666: 1, 3.0029532024555547: 1, 3.0025276246339341: 1, 3.0020644677630473: 1, 3.0019794903560579: 1, 2.9999379332434444: 1, 2.9964747622207004: 1, 2.9901235814756606: 1, 2.9899096631977211: 1, 2.9872285449651228: 1, 2.9855965669827063: 1, 2.9847704492515379: 1, 2.9847678006953888: 1, 2.9844694120647257: 1, 2.9839884102643852: 1, 2.9832615750527598: 1, 2.9827923919351984: 1, 2.9818566273280016: 1, 2.9786232213400115: 1, 2.978291884131401: 1, 2.9771705740785923: 1, 2.9735708438804029: 1, 2.9734733518003353: 1, 2.9714675463374753: 1, 2.9713751981721139: 1, 2.9705502497607079: 1, 2.9704737107156345: 1, 2.9700688965513007: 1, 2.9670521513417119: 1, 2.9653323679476062: 1, 2.9644036566654139: 1, 2.9617341177783789: 1, 2.9560386277283763: 1, 2.9548758947626212: 1, 2.9544041922625146: 1, 2.9541189271968795: 1, 2.9533764864327443: 1, 2.9525634300381327: 1, 2.9509311412881805: 1, 2.9500109521068798: 1, 2.9493801700279421: 1, 2.948614693342102: 1, 2.9430511770218852: 1, 2.9384066130258133: 1, 2.9359466956037519: 1, 2.9335078509954666: 1, 2.9328396388438933: 1, 2.9306790946931254: 1, 2.9301915316301965: 1, 2.9299138514867815: 1, 2.9262026370055003: 1, 2.9259615665243794: 1, 2.9259203836214422: 1, 2.9257152811453664: 1, 2.9255893337620384: 1, 2.9251559530739697: 1, 2.9235900937209451: 1, 2.9224792314688903: 1, 2.9217111932189961: 1, 2.9183938863402914: 1, 2.915539666799317: 1, 2.9075772999857494: 1, 2.907495132390173: 1, 2.9056868803823432: 1, 2.903828833610147: 1, 2.9015052191454229: 1, 2.9005192674748561: 1, 2.8984649653057373: 1, 2.8979377571007872: 1, 2.8971966205937698: 1, 2.8954621208914668: 1, 2.8922285068168065: 1, 2.8914706115967186: 1, 2.8914192644515229: 1, 2.8904961485361826: 1, 2.8902410754113999: 1, 2.8897357669595798: 1, 2.8872897054930839: 1, 2.8863447170125092: 1, 2.886154518099751: 1, 2.885177819747168: 1, 2.8844395491442087: 1, 2.8840120310812152: 1, 2.8833520964733603: 1, 2.8833459626864504: 1, 2.8831215369358558: 1, 2.8825649104881341: 1, 2.8795139511829286: 1, 2.8781546682612094: 1, 2.8777600425920489: 1, 2.8775135087511172: 1, 2.8774924921659024: 1, 2.8768198627213062: 1, 2.871401663275817: 1, 2.8707637230468519: 1, 2.8704450170002445: 1, 2.8698696374311878: 1, 2.8683926868246479: 1, 2.8679809866751276: 1, 2.8669778654386708: 1, 2.8659748645891363: 1, 2.8623788802440524: 1, 2.859762429070468: 1, 2.8578393009180552: 1, 2.8567283881924044: 1, 2.8565596337302881: 1, 2.8564938988650272: 1, 2.8549140447023418: 1, 2.8545210152460556: 1, 2.8543484134520107: 1, 2.8542017258202885: 1, 2.8526379652139404: 1, 2.8496576984785063: 1, 2.8449342273099893: 1, 2.8440526330173097: 1, 2.839898274458029: 1, 2.8393104285835538: 1, 2.838444776951873: 1, 2.8380220956853686: 1, 2.8349131344107192: 1, 2.8345321245265724: 1, 2.8328754509110836: 1, 2.83203980916845: 1, 2.8245349239102149: 1, 2.8204842533380008: 1, 2.8202822602063513: 1, 2.8192631306976521: 1, 2.8179074481557915: 1, 2.8152322614329472: 1, 2.8149970818479657: 1, 2.8144758534946508: 1, 2.8131465064328656: 1, 2.8131406440888376: 1, 2.8103258601091476: 1, 2.809378061988383: 1, 2.8091844341538761: 1, 2.8079776479877712: 1, 2.8053361515068125: 1, 2.804416598061398: 1, 2.8024943595602245: 1, 2.8018623150350255: 1, 2.8018021418193131: 1, 2.7961602123931217: 1, 2.7956579733799907: 1, 2.7932425350579662: 1, 2.7912868711006147: 1, 2.7857546326533487: 1, 2.7832698122594537: 1, 2.7827894185060815: 1, 2.7799323675818735: 1, 2.7794395885480818: 1, 2.7784083745644708: 1, 2.7777437736648021: 1, 2.7763641726688335: 1, 2.7733037967829675: 1, 2.7725709116138724: 1, 2.7711696483243244: 1, 2.7709403820227543: 1, 2.7709093366423403: 1, 2.7649442412840806: 1, 2.7648197174424731: 1, 2.7617938224775589: 1, 2.7609072538873529: 1, 2.7601205337330597: 1, 2.7544436679108406: 1, 2.7544101532345482: 1, 2.7541932891161611: 1, 2.7530842488505276: 1, 2.7502122596918812: 1, 2.7497457767915003: 1, 2.7489475272460355: 1, 2.7484090488114408: 1, 2.7478332351522323: 1, 2.7476687850366353: 1, 2.7456399735157695: 1, 2.7437830048365428: 1, 2.743163933906386: 1, 2.7428695038076123: 1, 2.7409572584758415: 1, 2.7399668393442598: 1, 2.7399535350372037: 1, 2.7390491473642982: 1, 2.7388657411699566: 1, 2.7386969449860215: 1, 2.7376226055668034: 1, 2.7366537618682441: 1, 2.7336743590436248: 1, 2.7335505284745225: 1, 2.7309356196857104: 1, 2.7298838748472907: 1, 2.7296148295236633: 1, 2.7289518865421467: 1, 2.7289451701663876: 1, 2.7282320806717344: 1, 2.7277406871726853: 1, 2.7246954037591857: 1, 2.7244389815713732: 1, 2.7235210599456705: 1, 2.7222269241271921: 1, 2.7190555637496034: 1, 2.7183434260184041: 1, 2.717364905100927: 1, 2.7166900633036337: 1, 2.7152802921295809: 1, 2.7149911823527586: 1, 2.7135375336854: 1, 2.7124900087818791: 1, 2.7115312560078868: 1, 2.7108077816133074: 1, 2.7104138999711398: 1, 2.7081984272709216: 1, 2.7065474108659711: 1, 2.7061681071052965: 1, 2.7053640012115205: 1, 2.704765730836344: 1, 2.7029407133549106: 1, 2.7028193386322634: 1, 2.7018494828154651: 1, 2.6955700171236496: 1, 2.6944854714772779: 1, 2.694347005613333: 1, 2.6920179125837969: 1, 2.6919134275887595: 1, 2.6917849836133154: 1, 2.6910067993214941: 1, 2.6907046190486286: 1, 2.6874360461405589: 1, 2.6867768306393542: 1, 2.6846516818865607: 1, 2.6837689144573331: 1, 2.68107856896258: 1, 2.6809157383663194: 1, 2.67980498401745: 1, 2.6781248330176735: 1, 2.6764629707231231: 1, 2.6759138580418207: 1, 2.6741965673281483: 1, 2.6741557483104637: 1, 2.6717225988756992: 1, 2.670858471002346: 1, 2.6705813086653083: 1, 2.6677976827513152: 1, 2.6675541930249573: 1, 2.66664923634394: 1, 2.6644846531905557: 1, 2.6621794730484845: 1, 2.6611123120232087: 1, 2.6596810086819307: 1, 2.6594460358512233: 1, 2.6581448801799339: 1, 2.6576724310359752: 1, 2.6572335378844114: 1, 2.655296855505811: 1, 2.6523392167131394: 1, 2.6512992409433367: 1, 2.6490385896558863: 1, 2.6485244116642042: 1, 2.6484192501160138: 1, 2.6477442188869169: 1, 2.6477281414040386: 1, 2.6475512237239083: 1, 2.646743612539403: 1, 2.6466279784841018: 1, 2.6459585094491174: 1, 2.6459507176253698: 1, 2.6454513346391457: 1, 2.6452438492558192: 1, 2.6446074091578855: 1, 2.6433034708274321: 1, 2.6423820038844972: 1, 2.6407136191325358: 1, 2.6398205818460099: 1, 2.6392770464321234: 1, 2.6389715370422393: 1, 2.6377585422583185: 1, 2.6369252994611352: 1, 2.6366542005615554: 1, 2.6359145942928839: 1, 2.6332630468343154: 1, 2.6332623044788037: 1, 2.6329077993323629: 1, 2.6327460374859561: 1, 2.6316074696558376: 1, 2.629656697924815: 1, 2.6295677966505422: 1, 2.6292141909706026: 1, 2.6286096469061078: 1, 2.6271513956774166: 1, 2.626850081166952: 1, 2.6268116701118429: 1, 2.6254592121730669: 1, 2.6232495618881759: 1, 2.6229314585945396: 1, 2.6223309935847765: 1, 2.6202255255180598: 1, 2.618047760211855: 1, 2.6156877821204718: 1, 2.6132330349498871: 1, 2.6112989885158968: 1, 2.610695588438511: 1, 2.6096585657872655: 1, 2.6091567544068992: 1, 2.6074487077579009: 1, 2.6061742173907656: 1, 2.6059552807322848: 1, 2.6056886645033783: 1, 2.604340520102657: 1, 2.6040963244946727: 1, 2.600955091966425: 1, 2.6005580387529044: 1, 2.5978730350916988: 1, 2.5943854958829746: 1, 2.5943126950980373: 1, 2.5917604903491052: 1, 2.5912642773872774: 1, 2.5901030930511646: 1, 2.5886863454745623: 1, 2.5859996425098859: 1, 2.5833359537839002: 1, 2.5829047770524776: 1, 2.5819394901780641: 1, 2.5818525744502865: 1, 2.5817932522414293: 1, 2.5805446254851532: 1, 2.5789204213785863: 1, 2.5780390096830508: 1, 2.5779180514150926: 1, 2.577916384220813: 1, 2.5773348578066666: 1, 2.5736250316971008: 1, 2.5709653065471949: 1, 2.5703207188118617: 1, 2.5690194473332104: 1, 2.5678239032651566: 1, 2.5645925767701363: 1, 2.5634020380684062: 1, 2.5602025980274155: 1, 2.5593878169968258: 1, 2.5592536293572543: 1, 2.5559189471978225: 1, 2.5553643541723101: 1, 2.5552969015653373: 1, 2.5548126053556732: 1, 2.5539105574147394: 1, 2.5526564338667801: 1, 2.5518444030212213: 1, 2.5490117033477699: 1, 2.5476755277948744: 1, 2.547499316005756: 1, 2.5474429981946782: 1, 2.5465847142820661: 1, 2.5452222999834921: 1, 2.5450208378449144: 1, 2.5429614816917248: 1, 2.5414057142569635: 1, 2.5375497705711862: 1, 2.5371614878528117: 1, 2.5331061587287156: 1, 2.5326335447380601: 1, 2.5320611925322032: 1, 2.5319947032222512: 1, 2.5318818240644791: 1, 2.5311068586429215: 1, 2.5271723326981714: 1, 2.5259944354714583: 1, 2.5258637078211787: 1, 2.5254935623358432: 1, 2.5252493568728269: 1, 2.5243340986923988: 1, 2.5237238052575814: 1, 2.5231955097377687: 1, 2.5231114778838166: 1, 2.5214209016709304: 1, 2.5203033822790721: 1, 2.5199276759480917: 1, 2.5197911424962287: 1, 2.5193364745134641: 1, 2.5165891420640025: 1, 2.516416374565035: 1, 2.5096769168416926: 1, 2.5091109289733455: 1, 2.5074337625021021: 1, 2.5072983651984435: 1, 2.5071394270088589: 1, 2.5064036381545849: 1, 2.5063091641311379: 1, 2.5048711071316609: 1, 2.5045551705114155: 1, 2.5015908811249732: 1, 2.5006736386951465: 1, 2.4995599875880918: 1, 2.4992533690503969: 1, 2.4963106631440324: 1, 2.4950198898082916: 1, 2.4946461272455913: 1, 2.4935709595887428: 1, 2.4918019533097411: 1, 2.4917050576000808: 1, 2.4892361069402806: 1, 2.4878148087578635: 1, 2.4866031708653531: 1, 2.48579798464915: 1, 2.4844272192844286: 1, 2.4842392134987268: 1, 2.4829863674983477: 1, 2.4825191497425156: 1, 2.4819186501993222: 1, 2.4811691338500204: 1, 2.4806065781243958: 1, 2.4805720108531544: 1, 2.4782434331869543: 1, 2.4762473267378056: 1, 2.4747733470283682: 1, 2.4730335737802283: 1, 2.4727483457613504: 1, 2.4723157048738469: 1, 2.4693992385780894: 1, 2.4684444072108658: 1, 2.468111331121873: 1, 2.4656409985349286: 1, 2.4653490838343353: 1, 2.4632817711567401: 1, 2.4630571457263248: 1, 2.4622218624959213: 1, 2.4614349680501419: 1, 2.4597763863714794: 1, 2.4596397538536912: 1, 2.4582022151720455: 1, 2.4565561436266559: 1, 2.4542520939162733: 1, 2.4539014620156068: 1, 2.4517670982486788: 1, 2.4515272128965764: 1, 2.4514642301864651: 1, 2.4511065144784023: 1, 2.4503385698906128: 1, 2.4496233154169369: 1, 2.4481614436197883: 1, 2.4481463055443489: 1, 2.4479672315600252: 1, 2.4478718930647778: 1, 2.4475679297658206: 1, 2.4474241182672043: 1, 2.4455374048738534: 1, 2.4446438161045094: 1, 2.4444529367155181: 1, 2.444421077183589: 1, 2.4419408964056388: 1, 2.441713746226883: 1, 2.4390771060865157: 1, 2.4389403434647772: 1, 2.4353371522349772: 1, 2.435173912394538: 1, 2.4348736207595141: 1, 2.4347992099025637: 1, 2.4339999391555298: 1, 2.4330737114593037: 1, 2.4304363121896642: 1, 2.4294570612733204: 1, 2.4290276480764228: 1, 2.4266384142279347: 1, 2.4232095288099855: 1, 2.4225624903936613: 1, 2.4201965391510196: 1, 2.4180083042529246: 1, 2.4168628902760756: 1, 2.4167599968001623: 1, 2.4161426656358369: 1, 2.4159444998697475: 1, 2.4140164651469784: 1, 2.4138906883702518: 1, 2.4136867386830567: 1, 2.4136021663656857: 1, 2.4119135786709385: 1, 2.4098597643644886: 1, 2.4092959682770672: 1, 2.4085098255011022: 1, 2.4075905655257381: 1, 2.4073442611357305: 1, 2.4066831632483625: 1, 2.4061913223264888: 1, 2.4044348866462588: 1, 2.4034724192802699: 1, 2.4029266097106614: 1, 2.4024188642165942: 1, 2.4006867226327504: 1, 2.4002650502506033: 1, 2.3967503020672969: 1, 2.3966094507347742: 1, 2.3956897760858715: 1, 2.3949413670127679: 1, 2.3949392404645828: 1, 2.3944224031387193: 1, 2.3926905992365732: 1, 2.3904645940481823: 1, 2.3889526505683736: 1, 2.3869400513616852: 1, 2.3855533506148974: 1, 2.3851024663281835: 1, 2.3842395799161302: 1, 2.3812417919318007: 1, 2.3800053441634663: 1, 2.3785676953066761: 1, 2.3776406650280446: 1, 2.3775317091360786: 1, 2.3771589312240464: 1, 2.3767998585076855: 1, 2.3766814176455169: 1, 2.3756095702252664: 1, 2.3753400964066129: 1, 2.3751637443426667: 1, 2.3750158731728601: 1, 2.3733798333963954: 1, 2.3733101980727045: 1, 2.3707841204354181: 1, 2.3694873156009826: 1, 2.3675038981909799: 1, 2.3665432451062869: 1, 2.3664011336172623: 1, 2.3663925788782501: 1, 2.3661073906502281: 1, 2.3653695339630851: 1, 2.3644725024930189: 1, 2.3634776660876851: 1, 2.362711129201803: 1, 2.3611668254299483: 1, 2.3609796439294448: 1, 2.3606077828607974: 1, 2.360328086341271: 1, 2.3601750463675235: 1, 2.359409764576696: 1, 2.3589062275894581: 1, 2.3569636771748832: 1, 2.3546649439049476: 1, 2.3539526444275243: 1, 2.3520018131674858: 1, 2.35171361744547: 1, 2.3504615696291751: 1, 2.3499112332275867: 1, 2.3497159945248489: 1, 2.3495413131606537: 1, 2.3480575991242572: 1, 2.346112874283262: 1, 2.3459949203671537: 1, 2.3457371535037308: 1, 2.3440327870871158: 1, 2.3438878611603648: 1, 2.3429428059148298: 1, 2.3427870258937422: 1, 2.3426522581849829: 1, 2.3416728701764571: 1, 2.3416558508227574: 1, 2.3416019488077038: 1, 2.3405124315379271: 1, 2.3394732824432802: 1, 2.3394620616711062: 1, 2.3393637439877262: 1, 2.3376083890954318: 1, 2.3372924428428528: 1, 2.3367290161199552: 1, 2.3350970186966866: 1, 2.3342613443102413: 1, 2.3330504078626637: 1, 2.3327046305482111: 1, 2.3308355299361545: 1, 2.3304347678470645: 1, 2.3301960346773463: 1, 2.329437180630249: 1, 2.3289443074958776: 1, 2.3286261989859738: 1, 2.3282763623303806: 1, 2.3269727671925788: 1, 2.326567432816824: 1, 2.3258629976774317: 1, 2.3239025856926343: 1, 2.3230565732819679: 1, 2.3216920192218296: 1, 2.3210483817353054: 1, 2.3209322038257336: 1, 2.3204782882575374: 1, 2.3200205164815149: 1, 2.319888843428453: 1, 2.3190494584018109: 1, 2.316102720126374: 1, 2.3116547742795448: 1, 2.3096220872796125: 1, 2.3089558953710774: 1, 2.3086726343743864: 1, 2.3084527884384469: 1, 2.3077943423886738: 1, 2.3077935511413687: 1, 2.3075472327531621: 1, 2.3074439860269873: 1, 2.3053391308985072: 1, 2.3033751843488637: 1, 2.3017929845307967: 1, 2.3000072595243921: 1, 2.2989313555173063: 1, 2.298928075373198: 1, 2.2988008207936259: 1, 2.2978133566812229: 1, 2.2975109141227157: 1, 2.2969410000050061: 1, 2.2955555418739215: 1, 2.2920173285250272: 1, 2.2898396846587135: 1, 2.2892844001438459: 1, 2.2854629820274588: 1, 2.285420458531557: 1, 2.2845726954049606: 1, 2.2834693758609679: 1, 2.282663011133665: 1, 2.282086910007882: 1, 2.2800178032980996: 1, 2.2791698858871339: 1, 2.2772888886113556: 1, 2.2767795710268408: 1, 2.2765742616363673: 1, 2.274477965428376: 1, 2.2736476553938356: 1, 2.2727776263194497: 1, 2.2635875329824207: 1, 2.2632069034752487: 1, 2.2626738591096083: 1, 2.2609465008272212: 1, 2.2593562215452354: 1, 2.2592555004400503: 1, 2.2569479412273385: 1, 2.2562782589118857: 1, 2.2536379089806644: 1, 2.2532513074129663: 1, 2.2532481041870418: 1, 2.2532303787371624: 1, 2.2522827111343631: 1, 2.2513204123114066: 1, 2.2509157262165695: 1, 2.250466617428633: 1, 2.2492295118218442: 1, 2.2488899152537938: 1, 2.2484696711917458: 1, 2.2466000354248608: 1, 2.2453702724878735: 1, 2.2450295724632094: 1, 2.2448895452046487: 1, 2.244065021752236: 1, 2.2430332807247275: 1, 2.2398344002164974: 1, 2.2394832707550782: 1, 2.2390719582643115: 1, 2.2384522666182778: 1, 2.2382988644926165: 1, 2.2364653466493647: 1, 2.2357865295542325: 1, 2.2344308858012187: 1, 2.2342557988449672: 1, 2.2336353603018528: 1, 2.2329309634207877: 1, 2.2323408417753288: 1, 2.2313759699018658: 1, 2.2312387983616446: 1, 2.230969606197049: 1, 2.2300574534393141: 1, 2.2296062257513709: 1, 2.2292788293215873: 1, 2.2288444402577303: 1, 2.2250730769634042: 1, 2.2248206785686775: 1, 2.2243206997178371: 1, 2.2239821044140822: 1, 2.2208384813728816: 1, 2.2205278381420568: 1, 2.2204322653620618: 1, 2.2202310405278824: 1, 2.2197156652980543: 1, 2.215472440117872: 1, 2.213907279055717: 1, 2.2129562869956332: 1, 2.2125179671170159: 1, 2.2108801970156318: 1, 2.2106187211919379: 1, 2.2101822213723015: 1, 2.2100887361531631: 1, 2.2080804354144181: 1, 2.2080241724175451: 1, 2.2079941612719924: 1, 2.2066134633504544: 1, 2.2045122260363246: 1, 2.2032966362380155: 1, 2.2023648502973612: 1, 2.2014966861160694: 1, 2.2004496122577915: 1, 2.1996576320867782: 1, 2.1994050830054492: 1, 2.1984184158910902: 1, 2.1979600270874289: 1, 2.1964171207251324: 1, 2.1952624525148958: 1, 2.1940376602138874: 1, 2.1936806902483386: 1, 2.1903429480546648: 1, 2.1884633587945412: 1, 2.1832818509983039: 1, 2.1829044425559005: 1, 2.18260222346465: 1, 2.1811371417355909: 1, 2.1805466098325912: 1, 2.1795511852570981: 1, 2.1790713394739436: 1, 2.1757795655433392: 1, 2.1755454176142579: 1, 2.1751643802444049: 1, 2.1746305395665422: 1, 2.1735774937668491: 1, 2.1735483701549043: 1, 2.172556610068753: 1, 2.1714784655379256: 1, 2.1709421603955086: 1, 2.1691286608952391: 1, 2.1690638684613002: 1, 2.1689942841543219: 1, 2.1687868638295789: 1, 2.1675671950986479: 1, 2.1672272832135508: 1, 2.1667933010318325: 1, 2.1662097300993679: 1, 2.165557382477068: 1, 2.1635673267384115: 1, 2.1633442101951892: 1, 2.162637552444493: 1, 2.1620988044508973: 1, 2.1620493125187497: 1, 2.1618189187543928: 1, 2.1615525060665881: 1, 2.1607723122957334: 1, 2.1605399779322574: 1, 2.160213300410224: 1, 2.1573191089090185: 1, 2.1560925369179103: 1, 2.1545900406075487: 1, 2.154573917897399: 1, 2.151435518356787: 1, 2.1500126188433901: 1, 2.1489596581898756: 1, 2.1488163224221086: 1, 2.148399268623935: 1, 2.1482087889823904: 1, 2.1471389601317887: 1, 2.1455321023086218: 1, 2.145275032095975: 1, 2.1452289242710871: 1, 2.1447439050957948: 1, 2.1439874702475086: 1, 2.1432278345508253: 1, 2.142959257647203: 1, 2.1412847598934088: 1, 2.1407891787151634: 1, 2.1405770760325358: 1, 2.1390293386440806: 1, 2.1388212117939496: 1, 2.1381479337012501: 1, 2.1378163160944328: 1, 2.1371538769832097: 1, 2.1370931638115023: 1, 2.1370352450343493: 1, 2.1367842737497234: 1, 2.1359002085343017: 1, 2.1358500930903843: 1, 2.134598414174615: 1, 2.1344589533785214: 1, 2.1326880105502086: 1, 2.1318200372498861: 1, 2.1309179930707649: 1, 2.1309161253395095: 1, 2.1289047684536881: 1, 2.128131981179056: 1, 2.1278327943212951: 1, 2.1277873743489231: 1, 2.1262893125730939: 1, 2.1262331794052352: 1, 2.1262130561441879: 1, 2.1258873687967181: 1, 2.1258302318717903: 1, 2.1252134759511661: 1, 2.1227154081290287: 1, 2.1223334227209718: 1, 2.1221123423638906: 1, 2.1214699390016616: 1, 2.1208157236553133: 1, 2.1194760542341284: 1, 2.1187461292030605: 1, 2.1180007636371156: 1, 2.1167250866768001: 1, 2.1162978291273511: 1, 2.1156485277835464: 1, 2.1152614744017657: 1, 2.1146000698869321: 1, 2.1143237901969192: 1, 2.1130968635371827: 1, 2.1127063860577797: 1, 2.1120503059754343: 1, 2.1101897898805757: 1, 2.1101466765977999: 1, 2.109022756297259: 1, 2.1088311558198556: 1, 2.1085828709678238: 1, 2.1080826625711779: 1, 2.1073231833241928: 1, 2.1070179981067931: 1, 2.1069172351140324: 1, 2.1066612881787226: 1, 2.1065564846101608: 1, 2.1061773552494749: 1, 2.104920094620462: 1, 2.1028877175248875: 1, 2.1006878974959546: 1, 2.0999846764352657: 1, 2.0994977245031774: 1, 2.0984891995826902: 1, 2.0982716457314199: 1, 2.0980417838511447: 1, 2.0978596453604812: 1, 2.0973723432130118: 1, 2.0971515933614131: 1, 2.0970550286519627: 1, 2.0960018047065239: 1, 2.0956631674860238: 1, 2.0954191243483344: 1, 2.0935940078372122: 1, 2.0923086571852085: 1, 2.0923004243309005: 1, 2.0918714143628794: 1, 2.0914649884573375: 1, 2.0909443990786025: 1, 2.0904748399958346: 1, 2.087952573486838: 1, 2.0879442041138425: 1, 2.0864659107369974: 1, 2.0863206913519146: 1, 2.085769578426536: 1, 2.0847685219940257: 1, 2.0838360353287309: 1, 2.0835200326018022: 1, 2.0834113654743294: 1, 2.0802597725032594: 1, 2.078193938748405: 1, 2.0774429053571786: 1, 2.0761702435900995: 1, 2.0747503335483319: 1, 2.0746023715129556: 1, 2.0737735952682992: 1, 2.0737010695715763: 1, 2.0735525536566217: 1, 2.0721747225069427: 1, 2.0706373538919824: 1, 2.0704830383793409: 1, 2.0704709598636937: 1, 2.0702481305611018: 1, 2.0697226796509174: 1, 2.069137230198193: 1, 2.0672893217451236: 1, 2.0657917436459878: 1, 2.0657470298335618: 1, 2.0656688485498793: 1, 2.0652071162230179: 1, 2.0647564687338438: 1, 2.0615775504159704: 1, 2.0607099676515364: 1, 2.0591677254481633: 1, 2.059085486713458: 1, 2.0581451432088849: 1, 2.0569844331689628: 1, 2.0559577057051199: 1, 2.0557077616973949: 1, 2.0550844512562509: 1, 2.0550057518231566: 1, 2.054650506321543: 1, 2.0531568842294798: 1, 2.0523110836792147: 1, 2.0521177942564557: 1, 2.0515984775442595: 1, 2.05157852091634: 1, 2.0514734238732508: 1, 2.0507895795452256: 1, 2.0506024999412085: 1, 2.0501677496823785: 1, 2.050023601343606: 1, 2.0491861187607872: 1, 2.0488885320400025: 1, 2.0469860070888481: 1, 2.0438764878182534: 1, 2.0431288284030567: 1, 2.0427171829992719: 1, 2.0416774672202109: 1, 2.038967657560296: 1, 2.0374897239595748: 1, 2.0370669377878441: 1, 2.0365437897369936: 1, 2.0352065226599159: 1, 2.0344860020325299: 1, 2.0336137447908458: 1, 2.0326278319771989: 1, 2.0320975606510938: 1, 2.0314573378239298: 1, 2.0313103523349505: 1, 2.0312765413784168: 1, 2.0304236109291813: 1, 2.0293327508798691: 1, 2.0285025607254141: 1, 2.0283470756045703: 1, 2.0282381121098614: 1, 2.0280340218064477: 1, 2.0279713415863352: 1, 2.0276697853131269: 1, 2.0270786755145744: 1, 2.0265107481742648: 1, 2.025286604451586: 1, 2.0210641792388415: 1, 2.0203359436908253: 1, 2.0202409953642504: 1, 2.0184654436478695: 1, 2.0182360951433846: 1, 2.0170991138537397: 1, 2.0168365208365664: 1, 2.0142960439203978: 1, 2.0134811171517355: 1, 2.0134478968083234: 1, 2.0124051553126474: 1, 2.0116762094533183: 1, 2.0109712568732023: 1, 2.0099068805185385: 1, 2.0098454217453674: 1, 2.0088577307919842: 1, 2.0083795788379177: 1, 2.0080792773176186: 1, 2.0075767341326114: 1, 2.0075282213712273: 1, 2.0073574444112916: 1, 2.0067481283460817: 1, 2.0065076036633829: 1, 2.0061164780231024: 1, 2.0051017899133594: 1, 2.0044821079042929: 1, 2.0041499252262414: 1, 2.0034612561365543: 1, 2.0027214766084831: 1, 2.0019154792309921: 1, 2.0014386483827087: 1, 2.0004781363210524: 1, 1.9996766920506508: 1, 1.9990247268766093: 1, 1.9970528304964716: 1, 1.9961055274010484: 1, 1.9957175306069921: 1, 1.9938833020322806: 1, 1.993375219933091: 1, 1.993141818700781: 1, 1.9927427740177577: 1, 1.9925907133917562: 1, 1.991319184867008: 1, 1.9912696829193999: 1, 1.9910958533378598: 1, 1.9910423551505554: 1, 1.9907098138560486: 1, 1.9898638994171494: 1, 1.9894689628577329: 1, 1.9880234342952479: 1, 1.9879966959324749: 1, 1.9879275455754286: 1, 1.9876675403743409: 1, 1.9859289919549938: 1, 1.9853255630189566: 1, 1.9846667525648714: 1, 1.9843715369070294: 1, 1.9833318968313485: 1, 1.9821228424259838: 1, 1.9806406285188831: 1, 1.9803597965490352: 1, 1.9791941114893374: 1, 1.9773414428730094: 1, 1.9771694109240228: 1, 1.9771548688508158: 1, 1.9758735015600102: 1, 1.9741743502493236: 1, 1.974052314651001: 1, 1.973150294232467: 1, 1.9725359501876625: 1, 1.9723230667727574: 1, 1.9715095789092454: 1, 1.9705154804744514: 1, 1.9697765070605813: 1, 1.9681099869780729: 1, 1.9678406779389237: 1, 1.9672158451230415: 1, 1.9668864376919641: 1, 1.9667547197333093: 1, 1.9662352476763385: 1, 1.9654084357313788: 1, 1.9650157328297313: 1, 1.9644717088162837: 1, 1.9642447798132709: 1, 1.9638863266575703: 1, 1.9636176148199072: 1, 1.9610237327134532: 1, 1.9609760555548812: 1, 1.9605931520793933: 1, 1.9602973938917563: 1, 1.9595145513174808: 1, 1.95897887921025: 1, 1.9585129886148938: 1, 1.9584764992812485: 1, 1.9583369705785971: 1, 1.9572613417215723: 1, 1.9572495163397374: 1, 1.9560079047189682: 1, 1.9546879824530636: 1, 1.9546214333407099: 1, 1.9541401949803918: 1, 1.9537171390082653: 1, 1.9525543041500917: 1, 1.9516793504471999: 1, 1.9510773778277033: 1, 1.950063513588949: 1, 1.9481574148007099: 1, 1.9475079664861796: 1, 1.9471028399152792: 1, 1.9464199557359256: 1, 1.9460451342885121: 1, 1.9453266294671285: 1, 1.9452981253085473: 1, 1.9451757385052113: 1, 1.9450075022166176: 1, 1.9447961531053406: 1, 1.9443543063192805: 1, 1.9436508944644781: 1, 1.9435530801586769: 1, 1.9431103640747744: 1, 1.9425621528464403: 1, 1.9418322113596085: 1, 1.9416682958216016: 1, 1.9401124064944086: 1, 1.9395412500622906: 1, 1.9389259102768199: 1, 1.9388131617741666: 1, 1.9380280209668019: 1, 1.9374732283351688: 1, 1.9373644643509205: 1, 1.936507696689918: 1, 1.9351874308439037: 1, 1.9347658121584204: 1, 1.9346045433316459: 1, 1.9334691497402907: 1, 1.9306364830564171: 1, 1.9298293609175452: 1, 1.9271559722339668: 1, 1.9263279968664442: 1, 1.9226938638302733: 1, 1.9214217673798037: 1, 1.9200272272555372: 1, 1.9196984793740173: 1, 1.9194573284287944: 1, 1.9180128447119447: 1, 1.9180123974627388: 1, 1.9179851116895388: 1, 1.9170945834068225: 1, 1.9162216386086224: 1, 1.9145692761505837: 1, 1.9129683094481287: 1, 1.9123099503146248: 1, 1.9106436466362655: 1, 1.9094200629481133: 1, 1.9085539067905157: 1, 1.9071765888666274: 1, 1.907107287099961: 1, 1.9070005750877586: 1, 1.9054908539720772: 1, 1.9048883760286088: 1, 1.9043995642113885: 1, 1.9029911977627085: 1, 1.9021515986979816: 1, 1.9012571178143831: 1, 1.9011806397964219: 1, 1.9008963019445688: 1, 1.9005610878801193: 1, 1.9001657208535576: 1, 1.8994536191858231: 1, 1.8982883039633243: 1, 1.8978297379672857: 1, 1.8977928459833302: 1, 1.8977075179772249: 1, 1.8965386740677426: 1, 1.8963084534008141: 1, 1.8949231187372717: 1, 1.8948752763518992: 1, 1.894736047457114: 1, 1.8945652779770015: 1, 1.8943409791543033: 1, 1.8942421498079516: 1, 1.8931802563593843: 1, 1.8928679467278942: 1, 1.8923172341505754: 1, 1.8920517587542069: 1, 1.8918943826295667: 1, 1.8897982488423977: 1, 1.8892447619907231: 1, 1.8890545022569389: 1, 1.8889811338878315: 1, 1.8883938386820232: 1, 1.8881574969444306: 1, 1.8881133179734106: 1, 1.8870532203650281: 1, 1.8867761742020743: 1, 1.8860488455334694: 1, 1.8846937366010921: 1, 1.8826629612843: 1, 1.8821837885896153: 1, 1.8821226031621641: 1, 1.8820856270600128: 1, 1.8819911106867144: 1, 1.881640583830311: 1, 1.8814089709304422: 1, 1.8793771737667395: 1, 1.8788573700680975: 1, 1.878603699259948: 1, 1.8785488649503466: 1, 1.8783086707382319: 1, 1.8780580463963552: 1, 1.8770792862368706: 1, 1.8766783416361705: 1, 1.876462507011236: 1, 1.8757198347507824: 1, 1.8751139061188413: 1, 1.8748214176836022: 1, 1.872777228927166: 1, 1.872224178937872: 1, 1.8719816048337732: 1, 1.8718935029630073: 1, 1.8699866437974195: 1, 1.8692456899059529: 1, 1.8671566649950431: 1, 1.8663017453838098: 1, 1.8653498503842527: 1, 1.8647435592993906: 1, 1.8646506411408845: 1, 1.8645660407489189: 1, 1.8620076668710854: 1, 1.861829601360623: 1, 1.8606905584381579: 1, 1.8601065700421942: 1, 1.8598735178480441: 1, 1.8591780734163321: 1, 1.8591645730284361: 1, 1.85914407575406: 1, 1.8589793432107877: 1, 1.8586633839068307: 1, 1.8577774039986663: 1, 1.8575792492195387: 1, 1.8571421817032716: 1, 1.8566806923791495: 1, 1.8562027584332335: 1, 1.8553993137514257: 1, 1.8546574337931596: 1, 1.8539935568061578: 1, 1.8536555019278218: 1, 1.8526585753262572: 1, 1.8522731289274024: 1, 1.8516960149845476: 1, 1.8505849667927663: 1, 1.8505147125081094: 1, 1.8491414695412334: 1, 1.8490441574999028: 1, 1.8486881560346193: 1, 1.8481082586633464: 1, 1.848022001304205: 1, 1.8477505344300271: 1, 1.8470428914279724: 1, 1.8467404468378075: 1, 1.8465983456065855: 1, 1.8456699673124948: 1, 1.8455259307786418: 1, 1.8448016707572801: 1, 1.8441570334161803: 1, 1.8437139250256083: 1, 1.8435387882883809: 1, 1.842980358020103: 1, 1.8428653608763774: 1, 1.8424414054667788: 1, 1.8415207281253527: 1, 1.841283632527001: 1, 1.8412728854543614: 1, 1.8409766655558351: 1, 1.8404982455949712: 1, 1.8401308503869038: 1, 1.8398299117728358: 1, 1.8389604839176283: 1, 1.8379146815140943: 1, 1.8373223656689492: 1, 1.8368604039401555: 1, 1.8356414174756555: 1, 1.8353972628655226: 1, 1.8346294654914312: 1, 1.8339853778135771: 1, 1.8335596721689562: 1, 1.8327320140109127: 1, 1.8317954363897657: 1, 1.8308506561902751: 1, 1.8308419140373273: 1, 1.8299217780378938: 1, 1.8298232163591557: 1, 1.829767263834233: 1, 1.8296298226611898: 1, 1.8285471291788395: 1, 1.8282190991233103: 1, 1.8281993685836988: 1, 1.8280605972780075: 1, 1.8267758486579979: 1, 1.826662652354041: 1, 1.8261351597010016: 1, 1.8258822252658167: 1, 1.8247452715851711: 1, 1.8243793855393999: 1, 1.8242242362641352: 1, 1.8240914534335431: 1, 1.8240468272197214: 1, 1.8237105365798603: 1, 1.8234601763692333: 1, 1.8217871792373639: 1, 1.821313345194111: 1, 1.820959666236555: 1, 1.8207714551679119: 1, 1.820295163348149: 1, 1.8200124939768614: 1, 1.8190197074742902: 1, 1.8182206479412841: 1, 1.8180456146975223: 1, 1.8178509215924097: 1, 1.8177054595956996: 1, 1.8170546846303537: 1, 1.8167224963301847: 1, 1.8165917803685223: 1, 1.815786154376422: 1, 1.8147462484028158: 1, 1.8143707325656588: 1, 1.8140777627345597: 1, 1.8121660150806038: 1, 1.8114858734920873: 1, 1.8109157528064193: 1, 1.8098862881532058: 1, 1.8091349975619957: 1, 1.8088090640614272: 1, 1.8088047042685331: 1, 1.808535263133807: 1, 1.8071755001017213: 1, 1.8066492737058715: 1, 1.8065675507107573: 1, 1.80650233478505: 1, 1.806172240292788: 1, 1.8037221877477121: 1, 1.8037178488582055: 1, 1.8036391844468469: 1, 1.8027912923032849: 1, 1.8025984833496347: 1, 1.8021236944417456: 1, 1.8013194682147211: 1, 1.8009435496174506: 1, 1.8008542977083235: 1, 1.8008089400394507: 1, 1.8007935111366344: 1, 1.8006166375213126: 1, 1.7988189416487774: 1, 1.7986626702728306: 1, 1.7984928691397357: 1, 1.7981945069479885: 1, 1.7980335264343323: 1, 1.7979537644060604: 1, 1.7978237976700413: 1, 1.7976164574011022: 1, 1.7961735040103901: 1, 1.7956522841865514: 1, 1.7955447921273138: 1, 1.7953393939456577: 1, 1.7951773319676827: 1, 1.7950921331600833: 1, 1.794954832026121: 1, 1.7941179394505962: 1, 1.7939448570630676: 1, 1.7932717200637061: 1, 1.7930178135297135: 1, 1.7930068223308147: 1, 1.7922564155507479: 1, 1.7921975222114541: 1, 1.7921871353949734: 1, 1.7918882363486988: 1, 1.7916290575225748: 1, 1.7905930847922542: 1, 1.7902090417971162: 1, 1.7900309231552047: 1, 1.7898390444748828: 1, 1.789073870579744: 1, 1.7890304440552349: 1, 1.7879611497804739: 1, 1.786897127567973: 1, 1.7859974717854408: 1, 1.7859423064045119: 1, 1.7858667873113687: 1, 1.7847963028197489: 1, 1.7847550451435823: 1, 1.7846281307039364: 1, 1.7843318986874692: 1, 1.7833132692852491: 1, 1.781193606963192: 1, 1.7810344901901378: 1, 1.7810047412925194: 1, 1.7805848258799557: 1, 1.7800726396871021: 1, 1.7797206997396944: 1, 1.7781788446893261: 1, 1.778071574425327: 1, 1.7779401328405462: 1, 1.777035537345828: 1, 1.7765655398957056: 1, 1.7763565758483286: 1, 1.7760460533558908: 1, 1.774161649386427: 1, 1.7730777983794139: 1, 1.7727443383681736: 1, 1.7725450615193921: 1, 1.7724911575576663: 1, 1.7714579183129255: 1, 1.7708853380213925: 1, 1.7696123419318455: 1, 1.7687707231433485: 1, 1.7677793703076183: 1, 1.7667925683146566: 1, 1.7662936736212715: 1, 1.7659509887699663: 1, 1.7657905314601574: 1, 1.7650910334827503: 1, 1.7643674789987287: 1, 1.7642422920878409: 1, 1.7637469427464718: 1, 1.7621529973866317: 1, 1.7621137648157295: 1, 1.7607942507828171: 1, 1.7599963573503712: 1, 1.759554232682593: 1, 1.7595409097629895: 1, 1.7592964760697491: 1, 1.7586304597091036: 1, 1.7581332638150005: 1, 1.7573423526750291: 1, 1.7573302792230157: 1, 1.757092436132069: 1, 1.7562123469390529: 1, 1.7561051223562993: 1, 1.7540979070031182: 1, 1.7525339210167705: 1, 1.7522031617876006: 1, 1.7520205191267737: 1, 1.7515724173985641: 1, 1.7508274975168714: 1, 1.7497054406708308: 1, 1.7485003916426054: 1, 1.7483600798183734: 1, 1.7471742668277435: 1, 1.746943079376758: 1, 1.7466868571163143: 1, 1.7462662876464325: 1, 1.7458273158485595: 1, 1.7448645140672232: 1, 1.7439472302861991: 1, 1.7438711640622675: 1, 1.7438098491218652: 1, 1.7429877916433212: 1, 1.7419977443680299: 1, 1.7418819853916969: 1, 1.741554555150618: 1, 1.74148438037106: 1, 1.7402084410516581: 1, 1.7392514540784036: 1, 1.7392074965762658: 1, 1.7391546008770931: 1, 1.7386907890287284: 1, 1.7385174413777822: 1, 1.7382990312013824: 1, 1.7353981943881955: 1, 1.7346897994180372: 1, 1.7332715754194663: 1, 1.7325408489832219: 1, 1.7319981784032497: 1, 1.7318108822888485: 1, 1.7314836071710804: 1, 1.7304485865652381: 1, 1.7291772635198919: 1, 1.7286306447673181: 1, 1.7285826643261462: 1, 1.728475982798108: 1, 1.7283471646979569: 1, 1.7282043034893653: 1, 1.727966885633041: 1, 1.7274939277087638: 1, 1.7270247084258878: 1, 1.726688273432468: 1, 1.7264577563591519: 1, 1.7258812214256334: 1, 1.725497056255012: 1, 1.7247031563434729: 1, 1.7231334135423386: 1, 1.7228813122750997: 1, 1.721938997725831: 1, 1.7216101420344541: 1, 1.7197145988338047: 1, 1.7187272442151171: 1, 1.7185953404750753: 1, 1.718137484226701: 1, 1.7170645358068033: 1, 1.7168061724497452: 1, 1.7154773795682705: 1, 1.7152942592469924: 1, 1.7148531246233001: 1, 1.7139444137398576: 1, 1.7136912094717844: 1, 1.7131259197669695: 1, 1.7128598128177741: 1, 1.7122213654981695: 1, 1.7120250722290582: 1, 1.7111213666165719: 1, 1.7110343314603014: 1, 1.7107448852788794: 1, 1.7105498797435181: 1, 1.7102137887307558: 1, 1.710105637187544: 1, 1.7079209573680558: 1, 1.7067561034073147: 1, 1.7067258873174629: 1, 1.7061673649665656: 1, 1.7058527675436819: 1, 1.705777117003008: 1, 1.7044297500892589: 1, 1.7043253249312298: 1, 1.7030604585325753: 1, 1.7023289920438587: 1, 1.7022274847276933: 1, 1.7021898947931855: 1, 1.7018104698121164: 1, 1.6987747838673062: 1, 1.6984252497282499: 1, 1.698032326014925: 1, 1.6975134337457229: 1, 1.6958306085454975: 1, 1.6951119949480256: 1, 1.6948887735892495: 1, 1.6944715063203977: 1, 1.6927710426885703: 1, 1.6926357721283469: 1, 1.6921545810685183: 1, 1.6920882698291773: 1, 1.6910103294164862: 1, 1.6907181259422139: 1, 1.6887708582943146: 1, 1.6885509584933547: 1, 1.6881624395265644: 1, 1.6880330260127241: 1, 1.6879228060753395: 1, 1.6868645353118958: 1, 1.6864607635172428: 1, 1.6860820784918846: 1, 1.6859971557828028: 1, 1.6859044158276812: 1, 1.6853883343101292: 1, 1.6847949576638619: 1, 1.6835527330543074: 1, 1.6831326470134447: 1, 1.6826527177252693: 1, 1.6825974752726212: 1, 1.6825615861939693: 1, 1.6822115453418387: 1, 1.6821188460372598: 1, 1.6820986248886993: 1, 1.6805762432345694: 1, 1.6804722936801435: 1, 1.6797653683530749: 1, 1.6795000633278256: 1, 1.6791657170992844: 1, 1.6791237545960196: 1, 1.6790977799287707: 1, 1.6782492694640259: 1, 1.6770819487970263: 1, 1.6769554213970934: 1, 1.6753361246220513: 1, 1.6753280948684415: 1, 1.6748799163642532: 1, 1.6743581795650377: 1, 1.6742683178315552: 1, 1.6728189449844959: 1, 1.6705620937202919: 1, 1.670476903637893: 1, 1.6695373446035808: 1, 1.6693951478508993: 1, 1.6685236033739228: 1, 1.6679059674913508: 1, 1.6675633137804162: 1, 1.6669649393518304: 1, 1.6664449066703628: 1, 1.6664388094943647: 1, 1.6663130806882893: 1, 1.6661467572780455: 1, 1.6658654897837373: 1, 1.6654961351253241: 1, 1.6648229893110245: 1, 1.6638107746900856: 1, 1.6634355543613204: 1, 1.6634147457431823: 1, 1.6630067143542115: 1, 1.6627463018093049: 1, 1.6626811458901887: 1, 1.661871491537444: 1, 1.6618643705697926: 1, 1.6603316476554575: 1, 1.659656021090401: 1, 1.65949939907942: 1, 1.6594159782495765: 1, 1.6582999064012742: 1, 1.6580053708079125: 1, 1.6564512046669471: 1, 1.6556856876486061: 1, 1.6550893590318299: 1, 1.6545531089594916: 1, 1.6537846287529019: 1, 1.6537447353313868: 1, 1.6534288403812014: 1, 1.6527139756040112: 1, 1.6526718592246723: 1, 1.6518007977013811: 1, 1.6512819411689357: 1, 1.6510868927723314: 1, 1.6506432886413871: 1, 1.6506311077319908: 1, 1.6494937598385397: 1, 1.6484661846765303: 1, 1.6483818106377028: 1, 1.6483602244074163: 1, 1.6467041703749234: 1, 1.6461293860111876: 1, 1.645480346839699: 1, 1.6447835962438624: 1, 1.644724825370609: 1, 1.6446993690489964: 1, 1.6441103561302126: 1, 1.6430547570877623: 1, 1.6425983566008644: 1, 1.6423611351864273: 1, 1.6414230421503713: 1, 1.6412795783877112: 1, 1.6397124210393197: 1, 1.6396152918743896: 1, 1.6394262047580863: 1, 1.63873768773273: 1, 1.637308118545622: 1, 1.6371854680146445: 1, 1.6371328047334863: 1, 1.6370427493050519: 1, 1.6367288457574083: 1, 1.6366272488385767: 1, 1.6365088694149916: 1, 1.6349804281656422: 1, 1.6347938788050367: 1, 1.6346633889428235: 1, 1.6345858088201017: 1, 1.6331237535877321: 1, 1.6330799799791926: 1, 1.6328911811001334: 1, 1.6327778312463723: 1, 1.6327659199426934: 1, 1.6322114956320597: 1, 1.6317009147344659: 1, 1.6305419299468022: 1, 1.6301844042271565: 1, 1.6300140677091832: 1, 1.6295211699775991: 1, 1.6284975274652478: 1, 1.6284246846705976: 1, 1.6283597478470646: 1, 1.6281407880786087: 1, 1.6277285411130362: 1, 1.6276040846646362: 1, 1.6274223051975854: 1, 1.6273808115611912: 1, 1.6267961465842709: 1, 1.6267215866299913: 1, 1.626279083877687: 1, 1.6254365703026588: 1, 1.6253495647626028: 1, 1.6247546165615387: 1, 1.6234195238968276: 1, 1.6229539157088748: 1, 1.6224889998271759: 1, 1.6224146819999159: 1, 1.6216307800483705: 1, 1.6205279526869287: 1, 1.6199347302152367: 1, 1.6188522919142585: 1, 1.6187262374682529: 1, 1.6181550279705774: 1, 1.618111748168968: 1, 1.6178373960560533: 1, 1.6175978346607607: 1, 1.6168473795731508: 1, 1.6166631621190208: 1, 1.6166609212720082: 1, 1.6164812346012623: 1, 1.6157997586656256: 1, 1.6150666804157598: 1, 1.6150650921647494: 1, 1.6138339793226211: 1, 1.6136108727869449: 1, 1.6129300971022633: 1, 1.6123263992958843: 1, 1.6103416713113847: 1, 1.6101423667763748: 1, 1.6097438097174042: 1, 1.6097206379593978: 1, 1.6088803103052309: 1, 1.6085768639911791: 1, 1.6080676535595859: 1, 1.6071875087880774: 1, 1.6067478091436891: 1, 1.6066563073320712: 1, 1.6050086562651733: 1, 1.6040043574236535: 1, 1.6029714698589119: 1, 1.6027526070500737: 1, 1.602625302644731: 1, 1.6020710050594829: 1, 1.6017566807311305: 1, 1.6016815825038702: 1, 1.6009793940303787: 1, 1.6007501983331438: 1, 1.6004286234229661: 1, 1.600364991460745: 1, 1.600227087404964: 1, 1.6000971818459835: 1, 1.5993851433632411: 1, 1.597729557300978: 1, 1.5970564187549161: 1, 1.5965717031695019: 1, 1.5964655547246884: 1, 1.5954231445670677: 1, 1.5944270242347036: 1, 1.5932695480835108: 1, 1.5930652481466181: 1, 1.5930119006007759: 1, 1.5927382980655285: 1, 1.5922926875468886: 1, 1.5915751674569019: 1, 1.591524398991687: 1, 1.590257625377794: 1, 1.5900486037542281: 1, 1.590034067049255: 1, 1.5899243242040992: 1, 1.5897800918686871: 1, 1.5893615924473481: 1, 1.5887781778590686: 1, 1.587640480507877: 1, 1.587581117932708: 1, 1.5865004115801147: 1, 1.5852887510843927: 1, 1.5851632419633974: 1, 1.5850862187218684: 1, 1.5842450930351824: 1, 1.5835120535742833: 1, 1.5834293338949337: 1, 1.583262289792621: 1, 1.5827839549904992: 1, 1.5824625983964384: 1, 1.5820729508643443: 1, 1.5810194138041678: 1, 1.5807825806096056: 1, 1.5800731654245219: 1, 1.5791947848321319: 1, 1.5789882266988811: 1, 1.5783528667592552: 1, 1.5773360273925321: 1, 1.5771657881436636: 1, 1.5765723925659154: 1, 1.5765007972283334: 1, 1.5755863636988714: 1, 1.5748578500984454: 1, 1.5742026684619095: 1, 1.5730127173846999: 1, 1.5722682316759764: 1, 1.5718017269049613: 1, 1.5715159666198713: 1, 1.5711616347661095: 1, 1.5706913220950123: 1, 1.5702205476761888: 1, 1.5693310661598368: 1, 1.5677621013680683: 1, 1.5668055410067676: 1, 1.5656831641814926: 1, 1.565678272103979: 1, 1.5654935082502344: 1, 1.564396320839742: 1, 1.5636938819389197: 1, 1.563615552999182: 1, 1.5635398743931643: 1, 1.5634601418322922: 1, 1.5624997731954711: 1, 1.5614318659451187: 1, 1.5612247762160387: 1, 1.5601557141769735: 1, 1.5598400340559639: 1, 1.5583855497242114: 1, 1.5581651369802023: 1, 1.558126474705136: 1, 1.557057177387049: 1, 1.5569502300567579: 1, 1.5560568590270278: 1, 1.5559568337710479: 1, 1.5552515707623451: 1, 1.5532025687375384: 1, 1.5514965336068971: 1, 1.5509192480711758: 1, 1.5508873373811696: 1, 1.550479354871958: 1, 1.5497826411816127: 1, 1.5492518725561744: 1, 1.5491904528280558: 1, 1.548732778309468: 1, 1.5480490395156916: 1, 1.5478520446966548: 1, 1.5460509668705216: 1, 1.5450471831964092: 1, 1.5446436961229311: 1, 1.5442632077586176: 1, 1.5430239625384161: 1, 1.5420775006645187: 1, 1.5420223350173869: 1, 1.5417335574972724: 1, 1.5407495879219488: 1, 1.5403893932951342: 1, 1.5398781745923764: 1, 1.5396893449628462: 1, 1.5387767871426101: 1, 1.5381282013318702: 1, 1.5369403343747898: 1, 1.5362373817196793: 1, 1.5351168614504214: 1, 1.5345423918168981: 1, 1.5344960442323177: 1, 1.534436025178251: 1, 1.5333964158833917: 1, 1.5330901257459697: 1, 1.5330669017566196: 1, 1.5327996433589048: 1, 1.5323915757075246: 1, 1.5315831434875669: 1, 1.5314159348403202: 1, 1.5313223491299468: 1, 1.5306394391800955: 1, 1.5304684515067153: 1, 1.5298390427632447: 1, 1.529504622741189: 1, 1.5281784202087734: 1, 1.5281328483680099: 1, 1.5281194091328199: 1, 1.5280119996723398: 1, 1.5277300919619294: 1, 1.5276447463289411: 1, 1.5276290166651176: 1, 1.5267173049536604: 1, 1.5260447785282198: 1, 1.5254882058249164: 1, 1.5250628189611311: 1, 1.5249753177958723: 1, 1.5244434176019723: 1, 1.5242224093893377: 1, 1.5226665535150679: 1, 1.5224232181183035: 1, 1.5205767196282098: 1, 1.520240500441506: 1, 1.519464551047615: 1, 1.518869762386386: 1, 1.5186967083470733: 1, 1.5180820097420875: 1, 1.5180729658256666: 1, 1.5172591255719869: 1, 1.5169543964750953: 1, 1.5166194661780736: 1, 1.5165539126891341: 1, 1.5158489617314719: 1, 1.515376497222602: 1, 1.5150332249685132: 1, 1.5149913023432822: 1, 1.5149763585237082: 1, 1.5147381160054469: 1, 1.5147086764108766: 1, 1.5135400636006457: 1, 1.5134121340523725: 1, 1.5132693199055025: 1, 1.5128747533765345: 1, 1.5127698442087461: 1, 1.5125653155613303: 1, 1.5125632585324762: 1, 1.5123368005912203: 1, 1.510181377775939: 1, 1.5094271848535021: 1, 1.508303935873927: 1, 1.5081362218761025: 1, 1.5079675406649264: 1, 1.5074269300050751: 1, 1.507152772420403: 1, 1.5068320656209186: 1, 1.5068072840021598: 1, 1.5065709891636199: 1, 1.5065494832732187: 1, 1.5063698559856025: 1, 1.5061439177092963: 1, 1.5060171504636626: 1, 1.5051397193095806: 1, 1.505021929953501: 1, 1.504478305473566: 1, 1.5040745948807051: 1, 1.5037431818994684: 1, 1.5034186322220742: 1, 1.5031313151629624: 1, 1.5024964116887076: 1, 1.5020638639387571: 1, 1.5012385502981958: 1, 1.5011421038981057: 1, 1.4998849661743425: 1, 1.4994904151072139: 1, 1.4992326351345746: 1, 1.4991203419552159: 1, 1.4986539020602352: 1, 1.498451650251136: 1, 1.4958629688738678: 1, 1.4945129267711557: 1, 1.4939903602675511: 1, 1.4936274140952726: 1, 1.4933871438043695: 1, 1.4931907003313296: 1, 1.4929843347425942: 1, 1.4927650478226249: 1, 1.4924175170715011: 1, 1.4909531786976482: 1, 1.4894331435813013: 1, 1.4889365366236187: 1, 1.4882321421703393: 1, 1.4879066092804498: 1, 1.487443671127854: 1, 1.4869012909839714: 1, 1.4868633152037034: 1, 1.4866188712776132: 1, 1.4865088883288189: 1, 1.4864910922914736: 1, 1.4854952577521143: 1, 1.4853242319652618: 1, 1.4840455304422708: 1, 1.4836240298636016: 1, 1.4833224195075332: 1, 1.4832232387013862: 1, 1.4829283974356862: 1, 1.4826000205221397: 1, 1.4822746846628641: 1, 1.4816872476162981: 1, 1.4815844169869044: 1, 1.4814242080132043: 1, 1.4806566888959685: 1, 1.4787206179076524: 1, 1.4780498649548046: 1, 1.4776552554247919: 1, 1.4776176898678377: 1, 1.4775488723198396: 1, 1.4773502337234092: 1, 1.4772539963985691: 1, 1.4770298960438228: 1, 1.4768449969367727: 1, 1.4766840217163968: 1, 1.4764334056493302: 1, 1.4762031370978423: 1, 1.476030258991524: 1, 1.4751744157606621: 1, 1.4746521057101725: 1, 1.4746021863545755: 1, 1.4743212454280845: 1, 1.4740593985339636: 1, 1.4733424819587495: 1, 1.4721339002532743: 1, 1.4710634803801721: 1, 1.4710537134906239: 1, 1.4707957849958622: 1, 1.470124388132301: 1, 1.470113892810863: 1, 1.4694281178021171: 1, 1.469315547058391: 1, 1.467999597187394: 1, 1.4676527233004126: 1, 1.4675427141625479: 1, 1.4670570379114365: 1, 1.4670450494793355: 1, 1.4661856112087299: 1, 1.465436985749675: 1, 1.4647121675637491: 1, 1.4632764770503095: 1, 1.463067950854684: 1, 1.4629700587382799: 1, 1.4625535839307822: 1, 1.4622008700005023: 1, 1.4618704607136608: 1, 1.4611906776496737: 1, 1.4606029246095744: 1, 1.4603947454323711: 1, 1.460093686230123: 1, 1.4600761960635635: 1, 1.4596221978702244: 1, 1.4589705913838518: 1, 1.4582297598784593: 1, 1.45804427596478: 1, 1.4577938568787578: 1, 1.4576485149811518: 1, 1.4575934989319317: 1, 1.4556143038534899: 1, 1.4550350323627119: 1, 1.454679891256299: 1, 1.4539895558261864: 1, 1.4537231165756812: 1, 1.4536263180756577: 1, 1.4533344298346538: 1, 1.4532960547349385: 1, 1.4532362404520769: 1, 1.452295886673471: 1, 1.4516736774999874: 1, 1.450866160948344: 1, 1.4507497549087969: 1, 1.4505508597228625: 1, 1.4501897635308607: 1, 1.4497678451233156: 1, 1.4490845742935505: 1, 1.4490372064343062: 1, 1.4489734331966093: 1, 1.4488456652202826: 1, 1.4488026569439261: 1, 1.4484516355142161: 1, 1.4477761026763487: 1, 1.4476180600678432: 1, 1.4475290773238356: 1, 1.4471061545758142: 1, 1.4467547121009257: 1, 1.4466065134195669: 1, 1.4463422070624921: 1, 1.4456371968839108: 1, 1.4455217480400888: 1, 1.4448936021387973: 1, 1.444220901620336: 1, 1.4439043792566741: 1, 1.443715066388964: 1, 1.4429351779284296: 1, 1.4427935363015314: 1, 1.4422021733578396: 1, 1.4420561227369944: 1, 1.4420263891622989: 1, 1.4417126887218534: 1, 1.4416268307847795: 1, 1.4413810941626302: 1, 1.4412033242720104: 1, 1.4411184801498509: 1, 1.4409657977871844: 1, 1.4407018758000596: 1, 1.4406676757710211: 1, 1.4402462192775711: 1, 1.4401741598813282: 1, 1.4400014918211219: 1, 1.4398280825213363: 1, 1.4394855979383199: 1, 1.4388774187623068: 1, 1.4384443984427469: 1, 1.4373504591412452: 1, 1.4364067865364736: 1, 1.4358880838449242: 1, 1.4355342051325832: 1, 1.4355129301008243: 1, 1.4346869280820804: 1, 1.4346526359203262: 1, 1.4345614907554032: 1, 1.4344218340688011: 1, 1.4342764335859874: 1, 1.4339954857221686: 1, 1.4337395854010431: 1, 1.4334008184557032: 1, 1.4321813612507803: 1, 1.4320542194957731: 1, 1.4320134642105387: 1, 1.4314701819111491: 1, 1.4308429222388888: 1, 1.4307073642044394: 1, 1.4306230966984899: 1, 1.430436959398093: 1, 1.4297770515060073: 1, 1.4295069677662542: 1, 1.4291467950111081: 1, 1.4289755738096981: 1, 1.4289498667789686: 1, 1.428846716732971: 1, 1.4281780791359602: 1, 1.4279104817845871: 1, 1.4275401005146104: 1, 1.4273020750092491: 1, 1.4264108478380533: 1, 1.425901358532857: 1, 1.4255220637891177: 1, 1.4253682729049713: 1, 1.4253633147843341: 1, 1.4251615793723886: 1, 1.4251460695515294: 1, 1.4249844456465346: 1, 1.4249712992759924: 1, 1.4248434858193793: 1, 1.4248375446236845: 1, 1.4236441259548052: 1, 1.4231513064742571: 1, 1.4229890897877324: 1, 1.4225936850374183: 1, 1.4212564392880584: 1, 1.4209093471340359: 1, 1.4207349612244433: 1, 1.4196982124834172: 1, 1.4193004586577824: 1, 1.4184287477528161: 1, 1.4175613753216971: 1, 1.4163038111880306: 1, 1.4159400137540818: 1, 1.4156698397048668: 1, 1.4148864353496926: 1, 1.4144948989342601: 1, 1.4143535786247581: 1, 1.4138127951995287: 1, 1.4136318282856195: 1, 1.4132027051606866: 1, 1.4127382616431703: 1, 1.4119738978237872: 1, 1.411301419234408: 1, 1.411044959962644: 1, 1.4110183363442337: 1, 1.4104547487480936: 1, 1.40972369603822: 1, 1.4087047626097273: 1, 1.4083729920614161: 1, 1.4082517862786927: 1, 1.4082160168160676: 1, 1.4081752682357525: 1, 1.4077618311597231: 1, 1.4075458360692923: 1, 1.4074849878920672: 1, 1.4072751922107971: 1, 1.4061704696322999: 1, 1.4060785333127701: 1, 1.4059208276861745: 1, 1.4058939103614856: 1, 1.4054656340041101: 1, 1.4050662983626867: 1, 1.4050584331399658: 1, 1.4028906526854819: 1, 1.4027295078093818: 1, 1.4022852611074583: 1, 1.402050119588282: 1, 1.4006878871211728: 1, 1.3992678221222783: 1, 1.399254891953339: 1, 1.3992209891680294: 1, 1.3985016996313755: 1, 1.3979223957210478: 1, 1.3971312758616223: 1, 1.3968101542374372: 1, 1.3960876476759987: 1, 1.3958740520093285: 1, 1.3951882129749453: 1, 1.3947935481696079: 1, 1.394125779418367: 1, 1.3932144676400213: 1, 1.3931849208415561: 1, 1.3931795394683322: 1, 1.3930903819801685: 1, 1.3929024853645264: 1, 1.3926605184339333: 1, 1.3920968552255129: 1, 1.3920372639003535: 1, 1.3905022572076142: 1, 1.3904349374858562: 1, 1.3902128821408697: 1, 1.3897196570646162: 1, 1.3896909986629771: 1, 1.3896859028338979: 1, 1.3894859212730348: 1, 1.3893395583743025: 1, 1.3891361294387217: 1, 1.3890481023094392: 1, 1.3886118238155531: 1, 1.3885830889020729: 1, 1.3885728032387001: 1, 1.3881355778560425: 1, 1.3880496195379137: 1, 1.3877451490144279: 1, 1.3875723173716474: 1, 1.3874419875115145: 1, 1.3868990672557457: 1, 1.3867430764530124: 1, 1.3865689141414193: 1, 1.3858541055760973: 1, 1.3858221802258783: 1, 1.3847918155135714: 1, 1.3847364237308983: 1, 1.3843301748643098: 1, 1.3836028454059426: 1, 1.3833128972985944: 1, 1.3827257725315425: 1, 1.3821975691664732: 1, 1.3809982598266932: 1, 1.380560906711628: 1, 1.3803045604039652: 1, 1.380237267991832: 1, 1.3801140019980911: 1, 1.3795157866723871: 1, 1.3793535733993265: 1, 1.3783152752791861: 1, 1.3780566653568755: 1, 1.3776569494896793: 1, 1.376636155140897: 1, 1.3765810364425721: 1, 1.3764183493253346: 1, 1.3749192191038848: 1, 1.3745858437319922: 1, 1.3745441039271129: 1, 1.374189228942809: 1, 1.3736533773750621: 1, 1.3734679679507116: 1, 1.373150625675551: 1, 1.3729148718169903: 1, 1.3725696011083857: 1, 1.37233327641617: 1, 1.3719985285034006: 1, 1.3719976864080359: 1, 1.3713483038670922: 1, 1.3702331519497566: 1, 1.3700354431090778: 1, 1.369934548760698: 1, 1.3698220551810367: 1, 1.3681467617606329: 1, 1.3680505067451836: 1, 1.3678866184011331: 1, 1.3678730709482396: 1, 1.367633656401356: 1, 1.3668652562211663: 1, 1.3663854060308516: 1, 1.3660950486872012: 1, 1.3660226964330469: 1, 1.3659201729747916: 1, 1.3659001126826378: 1, 1.3656324804281557: 1, 1.3649363522412257: 1, 1.3641358554778902: 1, 1.3637542496590598: 1, 1.3622987553136425: 1, 1.3621898685777745: 1, 1.3621518035266726: 1, 1.3621333066004491: 1, 1.362033915241738: 1, 1.3615541571963583: 1, 1.3611570533419397: 1, 1.3611499955974988: 1, 1.3606828425499395: 1, 1.3604612430243415: 1, 1.3602374417607974: 1, 1.3589802511842926: 1, 1.358926441498763: 1, 1.358804174034224: 1, 1.3587062685587263: 1, 1.3584720246068844: 1, 1.3582915755575902: 1, 1.3578231939993519: 1, 1.3572265834864112: 1, 1.3570055588974104: 1, 1.3568838770107079: 1, 1.3567019494210495: 1, 1.3565737876727633: 1, 1.3563557734363811: 1, 1.3561097472547603: 1, 1.3558936692922718: 1, 1.3551181131809202: 1, 1.3550942285306189: 1, 1.3549350636479938: 1, 1.3542173005096458: 1, 1.3541860950727178: 1, 1.3540383882182216: 1, 1.3536691099645297: 1, 1.353638166910359: 1, 1.3536355848059822: 1, 1.3534351514685217: 1, 1.3534309060043239: 1, 1.352943279912582: 1, 1.3525770275310252: 1, 1.351831322649085: 1, 1.3518193328153467: 1, 1.3517390566709613: 1, 1.3514762561723466: 1, 1.3509459977869682: 1, 1.3497163490536739: 1, 1.34728936633616: 1, 1.3472814449379131: 1, 1.3472217826553476: 1, 1.3471207097903588: 1, 1.346940440751293: 1, 1.3466589230405432: 1, 1.3464312593805383: 1, 1.3450733976488967: 1, 1.3445817641971154: 1, 1.3445460700831806: 1, 1.3443908057013134: 1, 1.3439116384229715: 1, 1.3438794185216607: 1, 1.3437619504449241: 1, 1.3434655416904133: 1, 1.3432937700241105: 1, 1.3432751682291131: 1, 1.3425639947621801: 1, 1.3421158317118467: 1, 1.3409176766666879: 1, 1.3407256023307521: 1, 1.3406505814167642: 1, 1.3405757457370997: 1, 1.3405314557705001: 1, 1.3404750848761602: 1, 1.340459404889113: 1, 1.3391703175136433: 1, 1.3384805264713351: 1, 1.3380125289585636: 1, 1.3372571198755268: 1, 1.3370298041922284: 1, 1.3366782397608834: 1, 1.3365971319646632: 1, 1.3364118683680808: 1, 1.3364005656316593: 1, 1.3360942457098435: 1, 1.3353631294245163: 1, 1.3350299125288205: 1, 1.3347286435335055: 1, 1.3341142006074023: 1, 1.3335814965764481: 1, 1.3334162176998561: 1, 1.3322209106987575: 1, 1.3311076352287718: 1, 1.3301501955026831: 1, 1.3297701381222837: 1, 1.3294895111748926: 1, 1.3289926096832858: 1, 1.3286494276731169: 1, 1.3282991182593382: 1, 1.3281959185794237: 1, 1.3278086939317746: 1, 1.3277653900317892: 1, 1.3274215091966652: 1, 1.3262190673028793: 1, 1.3250780992044178: 1, 1.3241731877408429: 1, 1.3239670428355772: 1, 1.3239224957262887: 1, 1.3224508159241908: 1, 1.3222709710902358: 1, 1.3221307595455114: 1, 1.3221268764920564: 1, 1.3217646601963617: 1, 1.3211117024908654: 1, 1.3205979469299023: 1, 1.3205528742609458: 1, 1.3205292169317446: 1, 1.3201290802036139: 1, 1.3198146851649097: 1, 1.3194405737245345: 1, 1.3193929480845574: 1, 1.3185872995832624: 1, 1.3181582106125214: 1, 1.3176397456222892: 1, 1.3175984888481416: 1, 1.3173284866817967: 1, 1.3168124778211217: 1, 1.316730849082473: 1, 1.3163088896558439: 1, 1.3161335297602266: 1, 1.3157635977269591: 1, 1.3155834546909542: 1, 1.3150531700318999: 1, 1.314924487728522: 1, 1.3147446817770077: 1, 1.3143002250539713: 1, 1.3142775869724725: 1, 1.3138541511404029: 1, 1.3133754402994466: 1, 1.3131661592552542: 1, 1.3130096948597172: 1, 1.3126820339816188: 1, 1.3117409555473758: 1, 1.3116623384969621: 1, 1.310921011599796: 1, 1.310893677549881: 1, 1.3106488685587157: 1, 1.3099691105989821: 1, 1.3097699286292788: 1, 1.3088776973722167: 1, 1.3087674247264001: 1, 1.3086451716679455: 1, 1.3084992823048585: 1, 1.3081443174073855: 1, 1.3079940919934108: 1, 1.3079842612804795: 1, 1.3079397114647409: 1, 1.3076893377096799: 1, 1.3071486541208692: 1, 1.3062803353623726: 1, 1.3060120896453831: 1, 1.3050888530578786: 1, 1.3046616118651986: 1, 1.3040376228228774: 1, 1.3036685045464504: 1, 1.3036523914169744: 1, 1.3036042513146613: 1, 1.3033178733327115: 1, 1.3030001118095074: 1, 1.3026786201076139: 1, 1.3015673727348225: 1, 1.3015080531369179: 1, 1.3013571068731096: 1, 1.3011698906530444: 1, 1.3011453943499118: 1, 1.3010487998593716: 1, 1.3007383818769966: 1, 1.3003726933439235: 1, 1.3002648430826691: 1, 1.2997346057650356: 1, 1.2996293034780197: 1, 1.2996080927496152: 1, 1.2993573979757038: 1, 1.2988104242711087: 1, 1.2978601702347459: 1, 1.2974924923445808: 1, 1.296308493841263: 1, 1.2962044576296208: 1, 1.2958507017999474: 1, 1.2953654538265658: 1, 1.2948701868289556: 1, 1.2946722463368694: 1, 1.2946458547784359: 1, 1.2939545156521153: 1, 1.2938888864117188: 1, 1.2932094686112918: 1, 1.2930133202095901: 1, 1.2920802257186361: 1, 1.2917365397200782: 1, 1.2916939565503505: 1, 1.2910877687366007: 1, 1.2910120216119387: 1, 1.2909678699891536: 1, 1.2900639810215002: 1, 1.2888959175414765: 1, 1.2883273907096058: 1, 1.288156080196194: 1, 1.288050515117444: 1, 1.2875958530249845: 1, 1.2875827020908959: 1, 1.2870519875910809: 1, 1.2870127321128013: 1, 1.2861874889633775: 1, 1.2859084069399265: 1, 1.2852103080600583: 1, 1.2844181445145437: 1, 1.2843190893155823: 1, 1.2839947437076626: 1, 1.2835320800044121: 1, 1.2832094382675512: 1, 1.2830435220282481: 1, 1.2829075520496263: 1, 1.2828250044376717: 1, 1.2826516453663985: 1, 1.2826234961067051: 1, 1.2823856059746461: 1, 1.282341904715391: 1, 1.2823311641443262: 1, 1.2817426947206465: 1, 1.2812718288463008: 1, 1.2805962052748823: 1, 1.2791479231166771: 1, 1.2791240510102335: 1, 1.2789137692337365: 1, 1.2786889540838169: 1, 1.2778420009422697: 1, 1.2771142453015569: 1, 1.2768940899958865: 1, 1.2766190415360121: 1, 1.2755047839608913: 1, 1.2737831651740561: 1, 1.2733903977023802: 1, 1.2728815384424339: 1, 1.2724772487662181: 1, 1.2722701325888051: 1, 1.2718021946080402: 1, 1.2715462982456285: 1, 1.2712281319540453: 1, 1.2708874984746008: 1, 1.2707101347311365: 1, 1.2702493489604154: 1, 1.2699265908311328: 1, 1.2690905975427131: 1, 1.2690756621165769: 1, 1.2687097625220738: 1, 1.2679184897734022: 1, 1.2676891151785814: 1, 1.2674196787425784: 1, 1.2673707904488185: 1, 1.2672382714970614: 1, 1.2666613927879422: 1, 1.2663648826556637: 1, 1.2662583573623729: 1, 1.2660044906753538: 1, 1.2650501817745772: 1, 1.2648175869312328: 1, 1.264810686775576: 1, 1.2638065774694736: 1, 1.2635774064819048: 1, 1.2631373996468618: 1, 1.2628941519255776: 1, 1.262702111352229: 1, 1.2624274004678739: 1, 1.2622145025581952: 1, 1.262070553605674: 1, 1.2619753422951754: 1, 1.2618141262605438: 1, 1.2616170133001416: 1, 1.2613092769810099: 1, 1.2612324005292697: 1, 1.2610928478685379: 1, 1.2607105044835956: 1, 1.25987474577991: 1, 1.2598396769885896: 1, 1.2597421371555542: 1, 1.2591721958100937: 1, 1.2590140724295054: 1, 1.2585736160105032: 1, 1.2584605273359133: 1, 1.2580856776802765: 1, 1.2576571818808637: 1, 1.25762895967794: 1, 1.257059438371245: 1, 1.2569455156621725: 1, 1.2542023758970307: 1, 1.2541874450994324: 1, 1.2541482032015228: 1, 1.2534591877328718: 1, 1.2533775649458498: 1, 1.2526788814065273: 1, 1.2523374710624471: 1, 1.2521795521869612: 1, 1.2519019873899033: 1, 1.2513873036040413: 1, 1.2513066058382825: 1, 1.2509119472156194: 1, 1.2503536987860107: 1, 1.2502720372680196: 1, 1.2500055482490258: 1, 1.2496065508479119: 1, 1.2495815396889256: 1, 1.2495719510121359: 1, 1.2491213301890471: 1, 1.2490186432587969: 1, 1.2488802651681774: 1, 1.2488262126276677: 1, 1.2486670363900507: 1, 1.2481903064607145: 1, 1.2478002772414951: 1, 1.2476369757467789: 1, 1.247258769064326: 1, 1.2466763995884207: 1, 1.2465444213959445: 1, 1.2447238083160084: 1, 1.2441031124460975: 1, 1.2434719051553578: 1, 1.2433905186646474: 1, 1.2429314478131552: 1, 1.2428994010305101: 1, 1.2424705650530696: 1, 1.2424507543421885: 1, 1.2420163012536964: 1, 1.2414564745820404: 1, 1.2411178818661488: 1, 1.2407963197375056: 1, 1.2404926834225811: 1, 1.2400689398029301: 1, 1.2400659620433321: 1, 1.2397995083597231: 1, 1.2395087718036288: 1, 1.2394167763633261: 1, 1.2392208553094628: 1, 1.2384303233248135: 1, 1.2381142205049438: 1, 1.2380174351772102: 1, 1.2376853414090658: 1, 1.2369499380321676: 1, 1.236294465558575: 1, 1.2362231650432145: 1, 1.2359742745346913: 1, 1.2350408778859503: 1, 1.2347010860909915: 1, 1.234265712897604: 1, 1.2340270957622326: 1, 1.2325660064257755: 1, 1.2321405248202451: 1, 1.2316270592750973: 1, 1.2315008759208439: 1, 1.2314209650155086: 1, 1.2313833897807416: 1, 1.2308249061075525: 1, 1.2307049211482812: 1, 1.2305849134872417: 1, 1.2303638325861266: 1, 1.23004698150678: 1, 1.228768134424959: 1, 1.2285932614003678: 1, 1.228490488146142: 1, 1.2282635439826946: 1, 1.2282554836345698: 1, 1.2276465670299093: 1, 1.2275961587323976: 1, 1.2271473605893091: 1, 1.2257756849536432: 1, 1.2253835369939232: 1, 1.2252212175967319: 1, 1.2244260087931143: 1, 1.2236088702661885: 1, 1.2220824073427288: 1, 1.2215413401697459: 1, 1.2202705942479908: 1, 1.2198469298286501: 1, 1.2186776858287478: 1, 1.2182242346919891: 1, 1.2181847760156785: 1, 1.2175446165371664: 1, 1.2174867293373539: 1, 1.2172316192400356: 1, 1.2172216201423052: 1, 1.2171455331625216: 1, 1.2164468442962588: 1, 1.2155282396135834: 1, 1.2154800946774726: 1, 1.2142681015053647: 1, 1.2138657279091984: 1, 1.2132422483137022: 1, 1.2129474060600414: 1, 1.2129433518898634: 1, 1.2128792160397088: 1, 1.2125954407344988: 1, 1.2120532593678413: 1, 1.2114858553483812: 1, 1.211441184544096: 1, 1.2107829583000684: 1, 1.2105756598443447: 1, 1.2104176538959248: 1, 1.2104059065977681: 1, 1.2100365148748262: 1, 1.2100349879926944: 1, 1.2092691085827922: 1, 1.2092121824819071: 1, 1.2084172149293837: 1, 1.2076755137225519: 1, 1.2073056656716148: 1, 1.2070985420900544: 1, 1.2066126842372311: 1, 1.2052933179018275: 1, 1.2047097724705513: 1, 1.2042977287840892: 1, 1.2039828233875149: 1, 1.2033970274005918: 1, 1.2032258143427479: 1, 1.2027309188095863: 1, 1.2025701028791871: 1, 1.2018896066256244: 1, 1.2013739491754121: 1, 1.2011628514760233: 1, 1.2007950730553907: 1, 1.2000438345462487: 1, 1.1995703274203373: 1, 1.1994437446833659: 1, 1.1984329169993715: 1, 1.1983485184230682: 1, 1.198118129639733: 1, 1.1977983903100202: 1, 1.1976308853065654: 1, 1.197548192872314: 1, 1.1974210413504509: 1, 1.1970962074736771: 1, 1.1970875301242254: 1, 1.1970666140380017: 1, 1.1969828987539302: 1, 1.196909850834085: 1, 1.196701517266753: 1, 1.1964975700574725: 1, 1.1963889613565637: 1, 1.1962601000627431: 1, 1.1943342047006176: 1, 1.1942723474831349: 1, 1.1939520578887133: 1, 1.193652435392053: 1, 1.1935137858101779: 1, 1.1931153008759987: 1, 1.1931143128072828: 1, 1.1929707089120289: 1, 1.1927295485066447: 1, 1.192613884986724: 1, 1.1924388865896138: 1, 1.1921968120391286: 1, 1.1921310841763646: 1, 1.1921006017931584: 1, 1.1920093569120884: 1, 1.1916428490349171: 1, 1.1914105133521717: 1, 1.1912597692210041: 1, 1.191049805113624: 1, 1.191042191709401: 1, 1.19095841106333: 1, 1.1908461351824349: 1, 1.1903818275158549: 1, 1.1893744024863393: 1, 1.1893039150742304: 1, 1.1885210098177794: 1, 1.1884612087067972: 1, 1.1872788505536251: 1, 1.1867200049008126: 1, 1.1864717954711714: 1, 1.1860131347615919: 1, 1.1860111486092582: 1, 1.1859366629760644: 1, 1.1855929438784218: 1, 1.1852662498131996: 1, 1.1851126053757155: 1, 1.1848199510861519: 1, 1.184717625693396: 1, 1.1846333209823681: 1, 1.1844396078766115: 1, 1.183871270156617: 1, 1.1837349991217949: 1, 1.1833649297652238: 1, 1.1833476735238193: 1, 1.1831458607239427: 1, 1.1827507755544502: 1, 1.182748442929521: 1, 1.1824094809876782: 1, 1.1819075809235917: 1, 1.1817799722884612: 1, 1.1814068734155023: 1, 1.1809769072913197: 1, 1.1808789747265318: 1, 1.1807324462176139: 1, 1.1806396505025025: 1, 1.1786126361777876: 1, 1.1784189281990811: 1, 1.1776612399743047: 1, 1.1775660888015758: 1, 1.1775376850135373: 1, 1.1774178221441671: 1, 1.1772415644014511: 1, 1.177181839487198: 1, 1.1771638989127196: 1, 1.1771624942292793: 1, 1.1764631848545215: 1, 1.1758408606806401: 1, 1.1752036880240739: 1, 1.1747978959372822: 1, 1.1745040947428209: 1, 1.1742708222198308: 1, 1.1741450564542641: 1, 1.1731983903310286: 1, 1.1727132791745416: 1, 1.1724401429508804: 1, 1.1720270054539585: 1, 1.171800010218772: 1, 1.1714452581638766: 1, 1.1706366046890979: 1, 1.1704445563816761: 1, 1.1698225473330783: 1, 1.1697800359199051: 1, 1.1695530483157992: 1, 1.169294236317171: 1, 1.1692612876793729: 1, 1.1689067541946223: 1, 1.1681450099060948: 1, 1.1680584746529641: 1, 1.1680282048412018: 1, 1.1679088166911329: 1, 1.1678512786575401: 1, 1.1671874133243143: 1, 1.1667263204370479: 1, 1.1666987245941258: 1, 1.1666737860396617: 1, 1.1659225403860782: 1, 1.1656493968510062: 1, 1.1652731790175004: 1, 1.1652471157466124: 1, 1.16502362989671: 1, 1.164958811223282: 1, 1.1649106302262606: 1, 1.1644960153471047: 1, 1.1637198969463187: 1, 1.1636884643473417: 1, 1.1629421338054726: 1, 1.1619313031250085: 1, 1.1615963016874884: 1, 1.1615363784959265: 1, 1.1614627865121212: 1, 1.1612560317399205: 1, 1.1611532238179165: 1, 1.1610546623278308: 1, 1.1607624342239486: 1, 1.1605209371126604: 1, 1.1604043091604694: 1, 1.1601880480187796: 1, 1.1598115288747044: 1, 1.1597788290032167: 1, 1.1589536139369061: 1, 1.1585878993455618: 1, 1.1582439998367975: 1, 1.1580592748775056: 1, 1.1578074914546737: 1, 1.1573090904247207: 1, 1.1571521757321794: 1, 1.157138455285738: 1, 1.1569926228700624: 1, 1.1569065811765682: 1, 1.1556019497119108: 1, 1.1551797116780809: 1, 1.1550800313597493: 1, 1.1548646266846203: 1, 1.1546144917120591: 1, 1.1543598655563432: 1, 1.1541583798346791: 1, 1.1540014100760638: 1, 1.1535255142691718: 1, 1.1529510291056388: 1, 1.1528814360014448: 1, 1.1525492362335508: 1, 1.1524131683946393: 1, 1.1516652442588189: 1, 1.151604780036463: 1, 1.1514320191470251: 1, 1.1511968690602057: 1, 1.1509715839561188: 1, 1.1509395809840099: 1, 1.1505514367493452: 1, 1.1504053074894485: 1, 1.1486965991666771: 1, 1.1484921251031888: 1, 1.1481709942998322: 1, 1.1477960225307144: 1, 1.1475698324086294: 1, 1.1475194603529832: 1, 1.1471843209788659: 1, 1.1467601868090724: 1, 1.1467286991969508: 1, 1.1464355127852064: 1, 1.1464227521513444: 1, 1.1464214468580258: 1, 1.1463642155772216: 1, 1.1461311099389417: 1, 1.1457556354601599: 1, 1.1455931995950417: 1, 1.1452089232640494: 1, 1.1450612240746436: 1, 1.1444525248102799: 1, 1.1444039548590534: 1, 1.1443201551743751: 1, 1.1441495563271988: 1, 1.1437587266250633: 1, 1.1437387342692855: 1, 1.1433189740737775: 1, 1.1431550205467604: 1, 1.14228681875819: 1, 1.1419234870375221: 1, 1.1417415397522355: 1, 1.141573133432116: 1, 1.1414680696967101: 1, 1.1414375292061663: 1, 1.14109927747878: 1, 1.1406509643776936: 1, 1.1406445039361959: 1, 1.1401837426526713: 1, 1.1401365821722513: 1, 1.139976717643935: 1, 1.1397013518840797: 1, 1.1396619820588718: 1, 1.1393149958758515: 1, 1.1388905108538314: 1, 1.1387079984718087: 1, 1.1382721173529564: 1, 1.137960635717526: 1, 1.1376977943319702: 1, 1.1370089453060779: 1, 1.1369335671349008: 1, 1.136499814338088: 1, 1.1361052741206676: 1, 1.1360258871786566: 1, 1.1359902205471397: 1, 1.1356393554950179: 1, 1.1356211966025254: 1, 1.1354185620507409: 1, 1.1353395646846183: 1, 1.1351484983581184: 1, 1.1348801655797456: 1, 1.1346890552754827: 1, 1.1346412648166828: 1, 1.1342574862142187: 1, 1.1341288395377453: 1, 1.133945201468272: 1, 1.133512300172868: 1, 1.1328059430243989: 1, 1.1325394536093751: 1, 1.1324854117647327: 1, 1.1320178232312064: 1, 1.1319016541633657: 1, 1.1318113880117564: 1, 1.1317337103143539: 1, 1.1316418158589727: 1, 1.1316369123458987: 1, 1.1315301824070154: 1, 1.1315275800287232: 1, 1.1307408945306068: 1, 1.1305646542879351: 1, 1.1298287000656477: 1, 1.129531164530543: 1, 1.1295219072098213: 1, 1.1292321164242036: 1, 1.1290755010247837: 1, 1.1288204344861239: 1, 1.1287925963601815: 1, 1.1284095537999488: 1, 1.1282991472319268: 1, 1.1282508787008607: 1, 1.1276399212869657: 1, 1.1273823248378496: 1, 1.1273098662603547: 1, 1.1270955921381052: 1, 1.1269066910529975: 1, 1.1268884297152442: 1, 1.1257954854273513: 1, 1.1255139389510773: 1, 1.1248646670965998: 1, 1.1247583095533475: 1, 1.1247465871051117: 1, 1.1241155731263952: 1, 1.1236489992691827: 1, 1.1235259732770009: 1, 1.1225188329346862: 1, 1.1223105678275735: 1, 1.1218221817057479: 1, 1.1217335999166624: 1, 1.1210701007877677: 1, 1.1209303491412255: 1, 1.1206208622009033: 1, 1.1203779250262298: 1, 1.1203709556808874: 1, 1.1202348199078449: 1, 1.1175394263279024: 1, 1.1175002064777075: 1, 1.117315646825092: 1, 1.1165933794435181: 1, 1.1161991139580132: 1, 1.1160110171152287: 1, 1.1159447330924326: 1, 1.1157697769680217: 1, 1.115534412517754: 1, 1.1151441440494587: 1, 1.1146308878859279: 1, 1.1145729042438959: 1, 1.1144913900888547: 1, 1.1140356129360052: 1, 1.1136668549732607: 1, 1.1136027448007251: 1, 1.1135093356709767: 1, 1.1133316157086159: 1, 1.1130130979928445: 1, 1.1129683538733262: 1, 1.1119912744764575: 1, 1.111920543442636: 1, 1.1108243140328158: 1, 1.1102300060677583: 1, 1.109810192324076: 1, 1.1094912565487869: 1, 1.1092218835830687: 1, 1.1091162438920537: 1, 1.1089873164451254: 1, 1.1087441899630539: 1, 1.1084872922099427: 1, 1.1079149091608758: 1, 1.1077992588555794: 1, 1.1075643069749674: 1, 1.1071905679530234: 1, 1.1069486634247649: 1, 1.1068827682430806: 1, 1.106749149363472: 1, 1.1067330506445785: 1, 1.1063757884604433: 1, 1.1061612598611479: 1, 1.1061033920361325: 1, 1.1059507457954996: 1, 1.1055907155948439: 1, 1.1054444405372927: 1, 1.1053888100022031: 1, 1.1050101363367473: 1, 1.1049515120844604: 1, 1.1049103118036396: 1, 1.1047043942350565: 1, 1.1046749504304747: 1, 1.1039499123671035: 1, 1.1038076039509805: 1, 1.1037532396113734: 1, 1.1036283572273642: 1, 1.1031715843769898: 1, 1.1031653113435502: 1, 1.1027398108880839: 1, 1.1024725365996009: 1, 1.1017896056091576: 1, 1.1014365660283569: 1, 1.1013748176921145: 1, 1.1008342839114311: 1, 1.1007514899408173: 1, 1.1001364243063501: 1, 1.0998735315347632: 1, 1.0996326088622834: 1, 1.0994523509914602: 1, 1.0993970585922577: 1, 1.099226692905769: 1, 1.0990035764617585: 1, 1.0989530767647691: 1, 1.0987494946081207: 1, 1.0987331625580634: 1, 1.0986996950431136: 1, 1.098566614876773: 1, 1.098519662376048: 1, 1.0984639985176095: 1, 1.0976814367035777: 1, 1.0976695993143291: 1, 1.0973108198663146: 1, 1.0971718216663864: 1, 1.0971579663265607: 1, 1.0969874407915761: 1, 1.096571584373603: 1, 1.0963950384467624: 1, 1.0963743254766265: 1, 1.096374239338644: 1, 1.0963338049552416: 1, 1.0960457936728014: 1, 1.0954004386852458: 1, 1.0951246008028053: 1, 1.0935075674658121: 1, 1.0932678535575018: 1, 1.0930362301476624: 1, 1.0927013579113871: 1, 1.0926897083441791: 1, 1.0926399224945835: 1, 1.0923426859779324: 1, 1.0921268273487015: 1, 1.0920923949496502: 1, 1.0918759087952143: 1, 1.0914759921327655: 1, 1.0914743137074949: 1, 1.0912699340269989: 1, 1.0910061507823534: 1, 1.0906163766288073: 1, 1.0904489055454056: 1, 1.0897451440910209: 1, 1.0889509564569813: 1, 1.0888900261234575: 1, 1.0884071895814904: 1, 1.0875725214775287: 1, 1.086935491625737: 1, 1.0868228289748183: 1, 1.0853354630512504: 1, 1.0852139155837131: 1, 1.0851897094941492: 1, 1.0848455340943084: 1, 1.0844974293770786: 1, 1.0836509653800657: 1, 1.0834798454177621: 1, 1.0834555031673661: 1, 1.0831548224348666: 1, 1.0830669178576253: 1, 1.0830360075631622: 1, 1.0827143114989057: 1, 1.0826099391389199: 1, 1.0825398043287535: 1, 1.0825381763083017: 1, 1.0819117436255283: 1, 1.0818016012143168: 1, 1.0817491155672254: 1, 1.0811721859787766: 1, 1.0804798140767105: 1, 1.08039836196658: 1, 1.0785688393698094: 1, 1.0784379184867785: 1, 1.0783341235790731: 1, 1.0783282958572948: 1, 1.0779586399340801: 1, 1.0777806939272836: 1, 1.0771866818954878: 1, 1.076960928083214: 1, 1.0767836552168062: 1, 1.0767553266868906: 1, 1.076568179214771: 1, 1.0763740138391993: 1, 1.0760594910289096: 1, 1.0760011044597244: 1, 1.0748438234336413: 1, 1.0745258706326026: 1, 1.0743449822158171: 1, 1.074316125655876: 1, 1.0742890067240307: 1, 1.0727972769914493: 1, 1.0724032474744436: 1, 1.0724018289548189: 1, 1.0723093760759224: 1, 1.0722814911323779: 1, 1.071962280506688: 1, 1.0719241257223064: 1, 1.0718066049091879: 1, 1.0716941682951697: 1, 1.0715679211364391: 1, 1.071466643648799: 1, 1.0713050522766654: 1, 1.0709579250926564: 1, 1.0708404490436849: 1, 1.0699516079358093: 1, 1.0696248686044514: 1, 1.0694038855066277: 1, 1.0689725144856308: 1, 1.0689641765005407: 1, 1.0689099538681814: 1, 1.0685955019437086: 1, 1.0678607848883421: 1, 1.0676100502293868: 1, 1.0672570159762456: 1, 1.0671424890618897: 1, 1.0661784597115145: 1, 1.0661521414167556: 1, 1.0661001510945487: 1, 1.0659154502723425: 1, 1.0658329757032208: 1, 1.065608517092665: 1, 1.0647727880212252: 1, 1.0646971854226694: 1, 1.0644162253390026: 1, 1.0636743669934285: 1, 1.0633672375710215: 1, 1.0627127040558157: 1, 1.0625113017874945: 1, 1.0620879785102264: 1, 1.0619990297814692: 1, 1.0615249838112664: 1, 1.0612238832841487: 1, 1.0605818192286811: 1, 1.0604492047222014: 1, 1.0602382416453051: 1, 1.0602111077382719: 1, 1.060197747055972: 1, 1.0600516770390453: 1, 1.0600208600867882: 1, 1.0594502855683399: 1, 1.05895009016832: 1, 1.058891728714157: 1, 1.0588473906303437: 1, 1.0585947639794056: 1, 1.0583167726476521: 1, 1.0581636859295764: 1, 1.0577544816839308: 1, 1.0576112611535369: 1, 1.0571220147372364: 1, 1.0569252930100563: 1, 1.0567785255204662: 1, 1.0564837802436298: 1, 1.0563011846590988: 1, 1.0561404227137521: 1, 1.0561011211161802: 1, 1.055746057244445: 1, 1.0557456301340755: 1, 1.0554721915587317: 1, 1.0551983973591774: 1, 1.0546301891420975: 1, 1.0544602837454968: 1, 1.0543497979261038: 1, 1.0542773015646147: 1, 1.0539456252655506: 1, 1.0535787124584546: 1, 1.0533870896906183: 1, 1.0528559597384888: 1, 1.0526782293794072: 1, 1.052547908629524: 1, 1.0521878399556339: 1, 1.052039618340145: 1, 1.0520023912704075: 1, 1.0519629911422965: 1, 1.0519271160911463: 1, 1.0514438587624437: 1, 1.0513672577130448: 1, 1.0513213644806463: 1, 1.0511952559724667: 1, 1.0508903422918419: 1, 1.0506404245467342: 1, 1.0506143774584742: 1, 1.0505891939735168: 1, 1.0505769315578661: 1, 1.0505761160209934: 1, 1.0500978277862565: 1, 1.0499265176476107: 1, 1.0495390025180504: 1, 1.0494899145271863: 1, 1.0493076221085005: 1, 1.0492034151125522: 1, 1.0491787002096655: 1, 1.0491472322006605: 1, 1.0488972391269986: 1, 1.0487580354808324: 1, 1.0487369139059945: 1, 1.0482529945156198: 1, 1.0479853023202006: 1, 1.0477690432572515: 1, 1.04766275514195: 1, 1.0474661135582672: 1, 1.0471562759724344: 1, 1.0469605365708925: 1, 1.046897640855019: 1, 1.0468150662236086: 1, 1.0466494050152411: 1, 1.0464393271009504: 1, 1.0460305320817649: 1, 1.0460120610392607: 1, 1.0457281239019021: 1, 1.045594063270864: 1, 1.0452258551957012: 1, 1.0450256868337346: 1, 1.0448989728172684: 1, 1.0446886639928947: 1, 1.0442405995061081: 1, 1.0441024469155065: 1, 1.0439351576389326: 1, 1.0438000748806575: 1, 1.0433374467071306: 1, 1.0432521463999362: 1, 1.0429413888921253: 1, 1.0425272049543457: 1, 1.0422803875197113: 1, 1.0419795293926599: 1, 1.0417723744907192: 1, 1.0417345384345831: 1, 1.0416749951936304: 1, 1.0416617138196895: 1, 1.0413414312924016: 1, 1.0412074159904048: 1, 1.04103160042836: 1, 1.0401597924501964: 1, 1.0400284607705266: 1, 1.0400018248915175: 1, 1.0399482727310274: 1, 1.0397065948127984: 1, 1.0394992096878428: 1, 1.0393459728227272: 1, 1.0389292305154136: 1, 1.0389126248960721: 1, 1.038812919823334: 1, 1.0387665858680903: 1, 1.038384924215543: 1, 1.0382145802340397: 1, 1.0377918219286375: 1, 1.0377319598744403: 1, 1.0374994365762855: 1, 1.037365956945407: 1, 1.0373622000001339: 1, 1.0372787854997971: 1, 1.0372694130405957: 1, 1.0371221175502323: 1, 1.0371174695944716: 1, 1.0363370354617214: 1, 1.0361616150669946: 1, 1.035661006425624: 1, 1.0356419383442814: 1, 1.0352626355646151: 1, 1.0348540359164193: 1, 1.0347274936443365: 1, 1.0347163128876835: 1, 1.0345218559032761: 1, 1.0344452657799681: 1, 1.0342494196234342: 1, 1.034183275809853: 1, 1.033991784332406: 1, 1.0338893958818587: 1, 1.0338803625030593: 1, 1.033194743075085: 1, 1.033023838719912: 1, 1.0324211013619404: 1, 1.0323728471081568: 1, 1.0322156627099326: 1, 1.0320711660175224: 1, 1.0313613928674059: 1, 1.0312069186165114: 1, 1.0309066897840975: 1, 1.0305963817832982: 1, 1.0299130920815778: 1, 1.0298924463754888: 1, 1.0292869976935772: 1, 1.0290524382843946: 1, 1.028553511752641: 1, 1.0284567705243626: 1, 1.0281871473053261: 1, 1.0280130356223576: 1, 1.0278647688904097: 1, 1.0276426455940906: 1, 1.0270743608058455: 1, 1.027046507421314: 1, 1.0270019126842231: 1, 1.0269334735233373: 1, 1.0267225618206686: 1, 1.026288863969226: 1, 1.0261430079818674: 1, 1.0258792026403538: 1, 1.0258483416682691: 1, 1.0256008052071592: 1, 1.0254610077996553: 1, 1.0254322338038597: 1, 1.0250389128343969: 1, 1.0248443443470012: 1, 1.0248239127161038: 1, 1.0247193471525764: 1, 1.0236914919423497: 1, 1.0236884638208097: 1, 1.0233648742937436: 1, 1.0228748893831872: 1, 1.0227066088772332: 1, 1.0226620951521392: 1, 1.0226053004255202: 1, 1.0225273021993375: 1, 1.0220645867120193: 1, 1.022052916946365: 1, 1.0219929029529491: 1, 1.0218391876657951: 1, 1.0215280001121345: 1, 1.0214411907764933: 1, 1.0207716722021734: 1, 1.0205266239576232: 1, 1.0203423112734582: 1, 1.0202952880878955: 1, 1.0202550177156402: 1, 1.0195859429912335: 1, 1.019566063459872: 1, 1.019372823030616: 1, 1.0193468154310961: 1, 1.0193406509878: 1, 1.0192726912374572: 1, 1.0191721197269679: 1, 1.0189575326649363: 1, 1.0188670012659737: 1, 1.0185342914803834: 1, 1.0184267424280373: 1, 1.0183400434059635: 1, 1.0179690618432193: 1, 1.0178507237666845: 1, 1.0172519788970111: 1, 1.0169754260453445: 1, 1.0166150787770236: 1, 1.0163679246761177: 1, 1.0155319193483516: 1, 1.0153430709465687: 1, 1.0153245280157501: 1, 1.0153143523435435: 1, 1.0149162222424923: 1, 1.0146485769350828: 1, 1.0145992195476619: 1, 1.014374251624917: 1, 1.014194828756438: 1, 1.0141452449088122: 1, 1.0139125753007976: 1, 1.0136918514361066: 1, 1.0132976629683601: 1, 1.0132029527028503: 1, 1.0129063757303447: 1, 1.0128236651499576: 1, 1.0124458426463201: 1, 1.0124375065375686: 1, 1.0120025911300636: 1, 1.0116783812203676: 1, 1.0115621720255907: 1, 1.0114529977801239: 1, 1.0113868905624337: 1, 1.0107886065389928: 1, 1.0107677351948481: 1, 1.0107123263678153: 1, 1.0106812171256156: 1, 1.0105619696997532: 1, 1.0102923640516488: 1, 1.0102520776171324: 1, 1.0094163611838161: 1, 1.0088249542108347: 1, 1.0086502077146873: 1, 1.0085965621322737: 1, 1.0085591579322331: 1, 1.0084803030623304: 1, 1.0083767796291732: 1, 1.0078395188440226: 1, 1.0074995500050128: 1, 1.0066672603549172: 1, 1.0066599057872658: 1, 1.0062784007490126: 1, 1.0061950652630711: 1, 1.0060759984324388: 1, 1.0060339964527893: 1, 1.0047109734679649: 1, 1.0045592420036826: 1, 1.0040314251544322: 1, 1.003790693039216: 1, 1.0036710743536199: 1, 1.0036435900509888: 1, 1.0035833350029093: 1, 1.0034928062527126: 1, 1.0034861254261438: 1, 1.0029444780981507: 1, 1.0025805309068814: 1, 1.0025739380003871: 1, 1.0019079250000027: 1, 1.0017319628332138: 1, 1.0012093211935094: 1, 1.0009205032491377: 1, 1.000517601236588: 1, 0.99890074749119906: 1, 0.99872715663279199: 1, 0.99745613671281308: 1, 0.99742437125525274: 1, 0.99707078602744204: 1, 0.99699392326196778: 1, 0.99672077017919136: 1, 0.9958855213496608: 1, 0.99578187299446574: 1, 0.99556577253292888: 1, 0.99548051122424441: 1, 0.99539523530585916: 1, 0.9950501875779586: 1, 0.99488693848662968: 1, 0.9945277072319777: 1, 0.9942889826027379: 1, 0.99389799320058203: 1, 0.9934093677413337: 1, 0.99337022692254129: 1, 0.99316989064947947: 1, 0.99312861208207392: 1, 0.99310955380500576: 1, 0.99275630796878989: 1, 0.99250988506834725: 1, 0.99242100609428752: 1, 0.99219979323383434: 1, 0.99208139362921688: 1, 0.9916281241120084: 1, 0.99142746515950297: 1, 0.99124983901461816: 1, 0.99035218002789205: 1, 0.99003793340284285: 1, 0.98985421053408362: 1, 0.98962301336882774: 1, 0.98944335355122892: 1, 0.98943696868540498: 1, 0.98927671469116296: 1, 0.98927135428356094: 1, 0.98876028909564651: 1, 0.98868662787663653: 1, 0.98861210375539932: 1, 0.98781830171087504: 1, 0.98758634884789065: 1, 0.98738102373001302: 1, 0.98703367819484322: 1, 0.98661061290850316: 1, 0.98629931895220935: 1, 0.98591100364226014: 1, 0.98578257411780279: 1, 0.98565695819115284: 1, 0.98560662709477853: 1, 0.98547772400301481: 1, 0.98539195656210887: 1, 0.985387032744106: 1, 0.98464592748619573: 1, 0.98463196897755145: 1, 0.98414518549337082: 1, 0.98360269881364371: 1, 0.98353891029022966: 1, 0.98339207072508128: 1, 0.98283604490855758: 1, 0.98281757608173259: 1, 0.98266999721447956: 1, 0.98257770354568075: 1, 0.98245184485408266: 1, 0.98243971534902108: 1, 0.98243800727260588: 1, 0.98226185170443558: 1, 0.98214180074180535: 1, 0.98191710051227143: 1, 0.98189373080307862: 1, 0.98127378335820581: 1, 0.98043138400438334: 1, 0.98032442189694768: 1, 0.98019957968477656: 1, 0.97994412365903294: 1, 0.97988807951058643: 1, 0.97978808097583081: 1, 0.979307840597329: 1, 0.97898964279472356: 1, 0.97856021628255807: 1, 0.97846846807394194: 1, 0.97838021788516638: 1, 0.97824176469211988: 1, 0.9778997550452776: 1, 0.97711361010674402: 1, 0.9770512588921707: 1, 0.9768003272106871: 1, 0.97667130873867747: 1, 0.97643987899151763: 1, 0.97632379528240965: 1, 0.97611282288682777: 1, 0.97579636415539861: 1, 0.97567358291406026: 1, 0.97561784282067021: 1, 0.97538548312195172: 1, 0.97501035631732857: 1, 0.97491482860340284: 1, 0.97485693872329815: 1, 0.97460400125825364: 1, 0.97449006505501645: 1, 0.97436028607102032: 1, 0.97383393270829377: 1, 0.97325039347655451: 1, 0.97271993509295818: 1, 0.97240788819526647: 1, 0.97227785931137078: 1, 0.97145178391549525: 1, 0.97139377683309514: 1, 0.97123235667708985: 1, 0.97103078911188145: 1, 0.97090588399264: 1, 0.97045208990440779: 1, 0.96990864824342926: 1, 0.96989948114867508: 1, 0.96966823973640759: 1, 0.96950349344478404: 1, 0.96944834603005925: 1, 0.9692208697758643: 1, 0.96916482482213429: 1, 0.96887566395049085: 1, 0.96885401799995763: 1, 0.9688146768839444: 1, 0.96844136019179139: 1, 0.96843256722110471: 1, 0.96812576659664495: 1, 0.96786901042675089: 1, 0.96781010867149786: 1, 0.96779379713039004: 1, 0.96732035338885491: 1, 0.96720267406121907: 1, 0.96654889839020097: 1, 0.96606785745541901: 1, 0.96584853995612696: 1, 0.96572109678532059: 1, 0.96555356917717228: 1, 0.96539944663335275: 1, 0.96510699537184597: 1, 0.96494966824847517: 1, 0.96470886993054938: 1, 0.96466986903906671: 1, 0.96462816386506001: 1, 0.96452863575814352: 1, 0.96392608724983697: 1, 0.96383671088188083: 1, 0.96330134243866239: 1, 0.96317000930113894: 1, 0.96298818425698618: 1, 0.96298325084566194: 1, 0.96261446323703115: 1, 0.96258268218873766: 1, 0.96217030122527625: 1, 0.96215359945761436: 1, 0.96174295849026803: 1, 0.96174174715884142: 1, 0.96154034271597122: 1, 0.96146661040825787: 1, 0.96129842324182513: 1, 0.96107250068245753: 1, 0.96099928938362511: 1, 0.96079765568083064: 1, 0.96076353865535802: 1, 0.96061925496776179: 1, 0.96059453033889663: 1, 0.96020650929838736: 1, 0.95979183486483932: 1, 0.95975331973286759: 1, 0.95974913488449309: 1, 0.95938507186174027: 1, 0.95895282317897135: 1, 0.9588254831976385: 1, 0.95845133241793568: 1, 0.95843268274145232: 1, 0.95814355604762746: 1, 0.95799119205913585: 1, 0.95790347191084091: 1, 0.95785091982633808: 1, 0.95779567216987893: 1, 0.95776255517809972: 1, 0.95776097942615523: 1, 0.95740683985568642: 1, 0.95713381371061967: 1, 0.95699812835791165: 1, 0.95673131641957609: 1, 0.9566532412643951: 1, 0.95647435277428494: 1, 0.95618803508929351: 1, 0.95582490133192399: 1, 0.95514436405684877: 1, 0.9549627656044315: 1, 0.95482531171956497: 1, 0.95446108600186519: 1, 0.95437110713399997: 1, 0.95437018867844081: 1, 0.95434972689590847: 1, 0.95430581483585053: 1, 0.95414315599022703: 1, 0.95385111631007002: 1, 0.95379388283770972: 1, 0.95337305392666716: 1, 0.95315456611724469: 1, 0.95299741975595542: 1, 0.95279648826742935: 1, 0.95276566369448412: 1, 0.95274468901971821: 1, 0.95257553799761141: 1, 0.95256360080811253: 1, 0.95245055697000069: 1, 0.95187327710936587: 1, 0.95182076917883951: 1, 0.95144279365285966: 1, 0.95138444399038646: 1, 0.95104013268578025: 1, 0.95083741699694446: 1, 0.95067106619318875: 1, 0.95023720276495138: 1, 0.95015854565186197: 1, 0.95015608298134446: 1, 0.95007136525506219: 1, 0.94964387899609548: 1, 0.94959277253039565: 1, 0.94921932807265275: 1, 0.94889939307665427: 1, 0.94879336772878242: 1, 0.94876978837776804: 1, 0.94873420940145137: 1, 0.94841394730288242: 1, 0.94841112665153571: 1, 0.94799815597607007: 1, 0.94798239486394342: 1, 0.94763405252234023: 1, 0.94723681102985413: 1, 0.94722985491440714: 1, 0.9468584515432571: 1, 0.94676764506422084: 1, 0.94668892599183951: 1, 0.94583033434176977: 1, 0.9449169087116045: 1, 0.94464199063629739: 1, 0.94425605741622987: 1, 0.94419773189960332: 1, 0.9438458705774031: 1, 0.94356720059295274: 1, 0.94326988848391757: 1, 0.94302585617360979: 1, 0.94292427475572893: 1, 0.94260073047414472: 1, 0.9425686313709627: 1, 0.94249039196959083: 1, 0.94208802839699679: 1, 0.94187542990994966: 1, 0.94079364544833077: 1, 0.93965667735473524: 1, 0.9394674954361163: 1, 0.93940471118968105: 1, 0.93895774067861415: 1, 0.93833364709925782: 1, 0.93831536742783572: 1, 0.93814404777195004: 1, 0.93807160070448026: 1, 0.93798037942717283: 1, 0.93790789309243305: 1, 0.93773738765305359: 1, 0.93765412980603668: 1, 0.93765114677245143: 1, 0.93755135419401459: 1, 0.93751779039486105: 1, 0.93718096744180324: 1, 0.93665840667907541: 1, 0.93655238547069541: 1, 0.93653928169685652: 1, 0.93629268647488495: 1, 0.9361714284055096: 1, 0.9361154929649016: 1, 0.93580135776307205: 1, 0.93565423303638828: 1, 0.93559282852014181: 1, 0.93502781482977992: 1, 0.93487224817126058: 1, 0.93483191986837244: 1, 0.93461002113136771: 1, 0.9344957045429062: 1, 0.93429060384101414: 1, 0.93358325550423493: 1, 0.93347762392033407: 1, 0.93342574662964706: 1, 0.93321944947202207: 1, 0.93304735642018666: 1, 0.9328285032185446: 1, 0.93277535119648469: 1, 0.93245946396504076: 1, 0.93239561324474274: 1, 0.9323416628368586: 1, 0.93217710827607436: 1, 0.93148042546806287: 1, 0.93123712179275486: 1, 0.93121792309657536: 1, 0.93117698599343024: 1, 0.93116087778059153: 1, 0.93110059142818291: 1, 0.9310963289787878: 1, 0.93086239537693771: 1, 0.93064930396054046: 1, 0.93052366268139763: 1, 0.93044934519948552: 1, 0.93019625519531235: 1, 0.93019479670701921: 1, 0.92997919933509943: 1, 0.92988706220191053: 1, 0.92979342749780869: 1, 0.92964108480615315: 1, 0.92959204039489474: 1, 0.92931057440664433: 1, 0.92920383702795817: 1, 0.92798661840216379: 1, 0.92794181848940449: 1, 0.9279416054043983: 1, 0.92784366940407192: 1, 0.92774284457992928: 1, 0.92687031947644949: 1, 0.92665910710160904: 1, 0.92637263153846106: 1, 0.92633843114143966: 1, 0.92627318764156463: 1, 0.92621743990250383: 1, 0.92610532277718627: 1, 0.92607857759114542: 1, 0.92606124687539448: 1, 0.92585577313917078: 1, 0.92576067500808112: 1, 0.92560255364554711: 1, 0.92553654130501928: 1, 0.92526431594421499: 1, 0.92520033849597616: 1, 0.92519774040652658: 1, 0.92493459944333112: 1, 0.92477342426223219: 1, 0.92460427084245267: 1, 0.92458788287056515: 1, 0.92440001709921882: 1, 0.92399929750030474: 1, 0.92387155679388089: 1, 0.9237961460706765: 1, 0.92373405621750404: 1, 0.9233125813949018: 1, 0.92327395898748188: 1, 0.92318483747132019: 1, 0.92315859209158158: 1, 0.9227958938973011: 1, 0.92272624352010879: 1, 0.92268979558574094: 1, 0.92267142230452381: 1, 0.92259082459060682: 1, 0.92224843395215139: 1, 0.9221742348289701: 1, 0.92178639957383635: 1, 0.92170011314716849: 1, 0.9214406014624561: 1, 0.92127209006720334: 1, 0.92078792049937441: 1, 0.92068976923194201: 1, 0.92041581542877127: 1, 0.92032541427649783: 1, 0.92022777835634872: 1, 0.91990959529528527: 1, 0.91975097493281954: 1, 0.9194697949870243: 1, 0.91944218053209947: 1, 0.91911272720154358: 1, 0.91897287302366948: 1, 0.91886874645613603: 1, 0.918865977777647: 1, 0.91882193206285101: 1, 0.91877826826445852: 1, 0.9186536281139065: 1, 0.91864542484487521: 1, 0.91843960924781376: 1, 0.91842007957065552: 1, 0.91827627077971274: 1, 0.91825213653707249: 1, 0.91811374153637826: 1, 0.91794234216317472: 1, 0.91787671892571199: 1, 0.9174266462398305: 1, 0.91720970312352423: 1, 0.91697499844125907: 1, 0.91669632266871492: 1, 0.91631957252671203: 1, 0.91628966891734354: 1, 0.91559781703063647: 1, 0.91559002630510256: 1, 0.9153208735370687: 1, 0.91444091353149082: 1, 0.91441007221580184: 1, 0.91402081271823066: 1, 0.91374774118385726: 1, 0.91366445089833093: 1, 0.91357459341478564: 1, 0.91352985504623885: 1, 0.91328502264753364: 1, 0.91311000686047872: 1, 0.91272747266641363: 1, 0.9127185512908681: 1, 0.91232443754717629: 1, 0.91114509230393359: 1, 0.91109477190009636: 1, 0.91092990614603031: 1, 0.91087287864586242: 1, 0.9107938483884922: 1, 0.91054520122747373: 1, 0.91011381184896067: 1, 0.9100716956697783: 1, 0.91001950552197408: 1, 0.90975729458929044: 1, 0.9097199794820422: 1, 0.9096384627938725: 1, 0.90955839421988449: 1, 0.9083331433635653: 1, 0.90820528195598471: 1, 0.90800665849587014: 1, 0.90757152057922352: 1, 0.90727707964371618: 1, 0.90716063839058747: 1, 0.90705744192814985: 1, 0.90703598772860661: 1, 0.90695979515443015: 1, 0.9069575125396423: 1, 0.90663678255410041: 1, 0.90652307342573368: 1, 0.90617914482130679: 1, 0.9061095743788613: 1, 0.90592640795794377: 1, 0.90533041836087413: 1, 0.90532775272074517: 1, 0.90530509107949386: 1, 0.90523307997839009: 1, 0.90489720557992515: 1, 0.90487688468963667: 1, 0.90462990600148474: 1, 0.90460115670847729: 1, 0.90429165385813581: 1, 0.90427877338341223: 1, 0.90414596463392138: 1, 0.90380854135805633: 1, 0.90373589040305224: 1, 0.90352578851218091: 1, 0.90324874511198094: 1, 0.90309579329227008: 1, 0.90297718119638648: 1, 0.90293753293235202: 1, 0.90201577489906082: 1, 0.9013186001437411: 1, 0.90100897431992288: 1, 0.90062046702843634: 1, 0.89970736036718812: 1, 0.89940414657235401: 1, 0.89921713258118519: 1, 0.89903657600401954: 1, 0.89900708927216744: 1, 0.89897594739375686: 1, 0.89882179206916857: 1, 0.89869227890993764: 1, 0.89862183702005127: 1, 0.89852838333081952: 1, 0.89848726073298646: 1, 0.8983844400089922: 1, 0.89836619064008849: 1, 0.89812449245444459: 1, 0.89806247508334547: 1, 0.89802256594332197: 1, 0.89799660819259708: 1, 0.89767019610632137: 1, 0.89761192600713846: 1, 0.89755259938393184: 1, 0.89731242039680004: 1, 0.89725113799670309: 1, 0.89712740154962856: 1, 0.89695759604978054: 1, 0.89681988612308072: 1, 0.89680572341565745: 1, 0.89618893809703049: 1, 0.89612307386605794: 1, 0.89593909815077288: 1, 0.89552398177426684: 1, 0.89538238821030913: 1, 0.89525239432919501: 1, 0.89520880046002693: 1, 0.89468021530436881: 1, 0.89465147783963672: 1, 0.89432236913332464: 1, 0.89428087918676369: 1, 0.89385470202442363: 1, 0.8937713916829173: 1, 0.89375370790410613: 1, 0.89368740298049176: 1, 0.89334101097860619: 1, 0.89327337966612752: 1, 0.89326434387218001: 1, 0.89294153435716395: 1, 0.89289903228427681: 1, 0.89277634065788247: 1, 0.89274657124178791: 1, 0.89271834174609666: 1, 0.89266572594838545: 1, 0.89266014478134526: 1, 0.89262359229939647: 1, 0.89251466369317745: 1, 0.89235820653434461: 1, 0.89225461823115815: 1, 0.89202032949054821: 1, 0.89184385383875209: 1, 0.89144107959586671: 1, 0.8907120462435052: 1, 0.89057840467676119: 1, 0.89051637673197293: 1, 0.89016684726078554: 1, 0.89000795541940847: 1, 0.88987271581620964: 1, 0.88976207066583501: 1, 0.88975305819215444: 1, 0.88947166721941162: 1, 0.88943171612012284: 1, 0.88936298998651153: 1, 0.8893294038162689: 1, 0.88906805282595835: 1, 0.88887447313386081: 1, 0.88880381756078708: 1, 0.88843532931256564: 1, 0.88813894843920427: 1, 0.88808780671424992: 1, 0.88789221756147485: 1, 0.8874267803234136: 1, 0.8871998522946839: 1, 0.88703092657423388: 1, 0.8869082996792067: 1, 0.88685127801220953: 1, 0.88679428702164753: 1, 0.8862857332013464: 1, 0.88623252695391153: 1, 0.88598644155094763: 1, 0.88567713960669903: 1, 0.8855562708091762: 1, 0.88548333908940391: 1, 0.88546367930151526: 1, 0.88544926352017428: 1, 0.88542467225810495: 1, 0.88502082329130938: 1, 0.88497506569943685: 1, 0.88483511354260325: 1, 0.88473451088420263: 1, 0.88467021381811695: 1, 0.8844924022399876: 1, 0.88447342424836894: 1, 0.88436102907078984: 1, 0.88398420715112525: 1, 0.8837089361221433: 1, 0.88368755194125292: 1, 0.88349065121206805: 1, 0.88326266416788068: 1, 0.88296861966698781: 1, 0.88284081060796082: 1, 0.88271624622794898: 1, 0.88270462600793553: 1, 0.88264731151714193: 1, 0.88246680258325783: 1, 0.8822941411739923: 1, 0.88161355104464134: 1, 0.88158454401727049: 1, 0.88150567371924249: 1, 0.88149935547694791: 1, 0.88141357468202597: 1, 0.88122075799029509: 1, 0.88114176270885547: 1, 0.88096065663630407: 1, 0.880951217492701: 1, 0.88075018371321501: 1, 0.88074026825773621: 1, 0.87963223345691954: 1, 0.87887151109855377: 1, 0.87878664676286533: 1, 0.87871530096730632: 1, 0.87870789483712974: 1, 0.87848204644485317: 1, 0.87834586749870958: 1, 0.87776588884370654: 1, 0.87744194139052922: 1, 0.87741764422478319: 1, 0.87686041258314862: 1, 0.87619346402943421: 1, 0.87603675905050427: 1, 0.87598096623743782: 1, 0.87570829127542171: 1, 0.87566559154030488: 1, 0.87506464140002338: 1, 0.87502566771673718: 1, 0.87487303530918237: 1, 0.87485514432795886: 1, 0.87462220130039736: 1, 0.87443319573485401: 1, 0.87407617280596639: 1, 0.87389778026150811: 1, 0.87352045800187805: 1, 0.87351546446486039: 1, 0.87330041092752597: 1, 0.87309322082816809: 1, 0.87287882994590238: 1, 0.87285143779086261: 1, 0.87250144195249324: 1, 0.87236360086714249: 1, 0.87230098351742769: 1, 0.8722090880699821: 1, 0.8719514972948047: 1, 0.87192352794532091: 1, 0.87180059468411497: 1, 0.87097658341598505: 1, 0.87041433516330868: 1, 0.86987503313130021: 1, 0.86932918081022936: 1, 0.86929940460908373: 1, 0.86927458531586099: 1, 0.86920180989224693: 1, 0.86869344602472676: 1, 0.86791367642596617: 1, 0.86762643315917498: 1, 0.86759351837041654: 1, 0.86738514465293182: 1, 0.8671948060907374: 1, 0.86714478908311687: 1, 0.8670958750429193: 1, 0.86668792422980978: 1, 0.86624934140653553: 1, 0.86574095942313933: 1, 0.86566511331079998: 1, 0.86558462729123919: 1, 0.8655119089756691: 1, 0.86530642501864408: 1, 0.86507627773805007: 1, 0.86488473971465474: 1, 0.86480179089002829: 1, 0.86454783326117091: 1, 0.86436713746591198: 1, 0.86426963757573072: 1, 0.86410769200467785: 1, 0.86410339011876858: 1, 0.86362698415267025: 1, 0.8635156203811698: 1, 0.86340886031048325: 1, 0.86332204427267711: 1, 0.86323945224920418: 1, 0.86308378397174224: 1, 0.86290015367473405: 1, 0.86274846935417038: 1, 0.86253988903382295: 1, 0.86224189095401194: 1, 0.86212024102841733: 1, 0.8620738534147121: 1, 0.86193036731629957: 1, 0.86180367891395948: 1, 0.86177026960593728: 1, 0.86155523834540082: 1, 0.86138681714575727: 1, 0.86133944169542065: 1, 0.86127534300058972: 1, 0.86116678988897621: 1, 0.86102635168750974: 1, 0.86099150422439774: 1, 0.86065236146193813: 1, 0.85985045721334541: 1, 0.85979193642101392: 1, 0.85962165118541911: 1, 0.85959330300233272: 1, 0.85948467719452326: 1, 0.85927471945465672: 1, 0.85921223154373183: 1, 0.85909365723347508: 1, 0.85908859619229561: 1, 0.85887191277553943: 1, 0.85881890947077477: 1, 0.85829544842821603: 1, 0.85829358255393229: 1, 0.85805936925235915: 1, 0.85759271781943203: 1, 0.85759025112283926: 1, 0.85710031242166651: 1, 0.85702578546282415: 1, 0.85670722544225708: 1, 0.85657813263527971: 1, 0.85653042912240085: 1, 0.85636884865233598: 1, 0.85619851962971638: 1, 0.85611820258258886: 1, 0.8560787213888118: 1, 0.85599943470389728: 1, 0.85532027049266846: 1, 0.85469302197549601: 1, 0.85468863529118722: 1, 0.8546394570570145: 1, 0.85450792005613341: 1, 0.8544433752755447: 1, 0.85432988253901554: 1, 0.85427147303691153: 1, 0.85386422628923864: 1, 0.85378968477009654: 1, 0.85351847234666778: 1, 0.85326498590275368: 1, 0.85324267225967154: 1, 0.8530192793286353: 1, 0.85290015487176074: 1, 0.85285545175919952: 1, 0.85258216788590135: 1, 0.85253140122482363: 1, 0.85222917252843766: 1, 0.85204558320478796: 1, 0.85131979075916342: 1, 0.85118160982585223: 1, 0.85116546004122484: 1, 0.85087506295111948: 1, 0.85068191944504057: 1, 0.8506058371662043: 1, 0.85059496640275345: 1, 0.85027735935473781: 1, 0.85022777555065487: 1, 0.85005388226666556: 1, 0.85002239070907726: 1, 0.849999553740858: 1, 0.84996070941919033: 1, 0.84990457235145378: 1, 0.84985379137350281: 1, 0.84967473941456018: 1, 0.84935989154090985: 1, 0.84921564954109685: 1, 0.84869527209428519: 1, 0.8484182642485909: 1, 0.84834740658205354: 1, 0.8482412333158369: 1, 0.84822287634516313: 1, 0.8482170571267762: 1, 0.84807029590431815: 1, 0.84752161003599746: 1, 0.84751095522309861: 1, 0.84666870113643211: 1, 0.84632242038649319: 1, 0.8462103471054262: 1, 0.84614322501047323: 1, 0.84597477821954115: 1, 0.84592904583950201: 1, 0.8454876224302641: 1, 0.84515099641919311: 1, 0.84513668564923594: 1, 0.84503229415420134: 1, 0.84493188203136216: 1, 0.84446938005164596: 1, 0.84442312511109685: 1, 0.84438394934698924: 1, 0.84407051627203256: 1, 0.84377757837207956: 1, 0.8434057283035209: 1, 0.84317959229709283: 1, 0.84312898237222855: 1, 0.84290624395976488: 1, 0.8425988065730845: 1, 0.84259619097680216: 1, 0.8425199845067789: 1, 0.84229017753757363: 1, 0.84217069047853765: 1, 0.84162098170130895: 1, 0.84106561337029961: 1, 0.84100312069870997: 1, 0.84072252270063441: 1, 0.84060121018676537: 1, 0.84045161481808284: 1, 0.84020703733404101: 1, 0.84013527679814171: 1, 0.83997161572876888: 1, 0.83980026357879745: 1, 0.83936561497686901: 1, 0.83924687532642106: 1, 0.83922286043385685: 1, 0.83916320770438013: 1, 0.83907062076264149: 1, 0.83889038120334514: 1, 0.83868406072926316: 1, 0.83867503708979851: 1, 0.83853836490427314: 1, 0.83844073668274055: 1, 0.8381026022800897: 1, 0.83784553941784823: 1, 0.83740741021112319: 1, 0.83723674707163287: 1, 0.83722053742293701: 1, 0.83712490417881957: 1, 0.83652630064005107: 1, 0.83633401094517845: 1, 0.83625580902172214: 1, 0.83583030765605759: 1, 0.83565389204115925: 1, 0.83562351037713778: 1, 0.83559562967041734: 1, 0.83530822248050174: 1, 0.83530314883955625: 1, 0.83506069673319905: 1, 0.83498084064469746: 1, 0.83447654089251755: 1, 0.83396578185378278: 1, 0.83354966739262504: 1, 0.83340863796399667: 1, 0.8333643035577325: 1, 0.8327426565215571: 1, 0.83248963938438036: 1, 0.83242373614354859: 1, 0.83236220321980792: 1, 0.83233740008485213: 1, 0.8321481546903754: 1, 0.83212761398864432: 1, 0.83196793475616571: 1, 0.83179234127599055: 1, 0.83166967401148362: 1, 0.83164006161066961: 1, 0.83140042365987621: 1, 0.83124603535764907: 1, 0.8306425103952183: 1, 0.83035811759768141: 1, 0.8302378200341447: 1, 0.83011750082014579: 1, 0.82988753491228129: 1, 0.82987049601541585: 1, 0.82973538093790566: 1, 0.82965743357023047: 1, 0.82962959641246448: 1, 0.82958173387595391: 1, 0.82945575485972067: 1, 0.82921003381118408: 1, 0.8290153722373792: 1, 0.82843200032897713: 1, 0.82830564668545092: 1, 0.8277276167111316: 1, 0.82768302711676633: 1, 0.82747560252783003: 1, 0.82733378764683585: 1, 0.82719026797472461: 1, 0.82678384552474427: 1, 0.82658533408983492: 1, 0.8261628749574047: 1, 0.82565114252623917: 1, 0.82551552788786053: 1, 0.82544339335664396: 1, 0.82536753619171033: 1, 0.8253172053172555: 1, 0.8250105496153034: 1, 0.8248038330894365: 1, 0.82465352196441633: 1, 0.82437581932074611: 1, 0.82420143812285895: 1, 0.82416620860295697: 1, 0.82407316935129205: 1, 0.8236585057757122: 1, 0.82365611065759003: 1, 0.82339949466092999: 1, 0.82333412664916217: 1, 0.82327821737942708: 1, 0.82291274488769883: 1, 0.82273555213423366: 1, 0.82257210666051184: 1, 0.8225051900451803: 1, 0.82243540112759383: 1, 0.82222482704108002: 1, 0.82219290910122766: 1, 0.82211067311065422: 1, 0.8219423596672365: 1, 0.82144487637082375: 1, 0.82141672621341666: 1, 0.82137939521314951: 1, 0.82126310171115791: 1, 0.82113482263407678: 1, 0.82075755267005301: 1, 0.82074167531865239: 1, 0.82063406264321082: 1, 0.82054674242805925: 1, 0.82041474762023014: 1, 0.82037906003952676: 1, 0.8201365036625885: 1, 0.82004414744828802: 1, 0.8199238593099899: 1, 0.81914126152542588: 1, 0.81902416191810512: 1, 0.81891942463435063: 1, 0.81875424290308296: 1, 0.81873858880236261: 1, 0.81870704867883815: 1, 0.81851409949072818: 1, 0.81841070446098452: 1, 0.81837275416089095: 1, 0.81818217234429647: 1, 0.81816441238910309: 1, 0.81727886566071639: 1, 0.81710008539547641: 1, 0.81697753798421613: 1, 0.81695403047004977: 1, 0.8167887926558538: 1, 0.81676204394599883: 1, 0.81674409670945858: 1, 0.81665207516077487: 1, 0.81647452686741129: 1, 0.81646395835550745: 1, 0.81635637551530349: 1, 0.81625568658409497: 1, 0.81609927837899843: 1, 0.81600710449971525: 1, 0.81542552706146532: 1, 0.81535857007348223: 1, 0.81480655225598653: 1, 0.81477163335678804: 1, 0.81421529074904508: 1, 0.81407237211055838: 1, 0.81402497215391245: 1, 0.81390359473878082: 1, 0.81339345145872721: 1, 0.81335233386253669: 1, 0.81314863331687592: 1, 0.81306510789673914: 1, 0.8129428298661644: 1, 0.81291102171704765: 1, 0.81287100862755357: 1, 0.81264271447445946: 1, 0.81260826173490708: 1, 0.81252271779983731: 1, 0.81232265857455033: 1, 0.81229235700846769: 1, 0.81209564413398971: 1, 0.81204508952624055: 1, 0.81197282769548251: 1, 0.81177718225705742: 1, 0.8116328276551007: 1, 0.81145147174013199: 1, 0.81132463001502231: 1, 0.81103253189118174: 1, 0.81089960353109547: 1, 0.8107289209855264: 1, 0.81058598027847029: 1, 0.81047307641001909: 1, 0.81038438347893949: 1, 0.81037882608159539: 1, 0.81009844969369849: 1, 0.81000145042314697: 1, 0.80998983741240416: 1, 0.80982445736027009: 1, 0.80974480598223719: 1, 0.80965439224039437: 1, 0.80963415944538197: 1, 0.8095511403281126: 1, 0.80929304072245212: 1, 0.8091577031331364: 1, 0.80897242215470422: 1, 0.80895577548076314: 1, 0.80868545097651856: 1, 0.80858263279706455: 1, 0.80857829322434527: 1, 0.80854176222145213: 1, 0.80846901233189761: 1, 0.80804873584937342: 1, 0.80779788789969209: 1, 0.80776402051610618: 1, 0.80756401571848602: 1, 0.80745703641747957: 1, 0.80740459569920364: 1, 0.80719960090696163: 1, 0.8071751944673784: 1, 0.80706298988205816: 1, 0.80685641151281728: 1, 0.80672909049804042: 1, 0.80667057976793333: 1, 0.80641561521204475: 1, 0.80617871784956097: 1, 0.80610627181439121: 1, 0.80594929999240683: 1, 0.80592797888300616: 1, 0.80577720687798915: 1, 0.80577452004984174: 1, 0.80565760106252216: 1, 0.80548118703119542: 1, 0.80540044935503374: 1, 0.80534657504232243: 1, 0.80525272367472289: 1, 0.80518980087027214: 1, 0.80513747093034216: 1, 0.80504125151331096: 1, 0.80483347580018005: 1, 0.80438775850876587: 1, 0.80433434215477106: 1, 0.80428033025769918: 1, 0.80424117278394591: 1, 0.80415036538447249: 1, 0.80414346823300953: 1, 0.80412146223367598: 1, 0.80356173274675047: 1, 0.80352524041438844: 1, 0.8033014430854013: 1, 0.80306831578757665: 1, 0.80295247029272032: 1, 0.80293650505341851: 1, 0.80279380948610335: 1, 0.80250071846626281: 1, 0.80238201801371656: 1, 0.80191512841444013: 1, 0.8018714903123777: 1, 0.80159544710095854: 1, 0.80149746610191197: 1, 0.80135328878354117: 1, 0.8011577748569283: 1, 0.80106467534922676: 1, 0.80050520929833202: 1, 0.80020454225745208: 1, 0.80015876522219764: 1, 0.79999098533836077: 1, 0.79989859490067339: 1, 0.79971981337466014: 1, 0.79971334502021219: 1, 0.79938496034745954: 1, 0.79932580964192135: 1, 0.79918550448353787: 1, 0.79916128291507227: 1, 0.79879347410012846: 1, 0.79848204566465886: 1, 0.79847460002337878: 1, 0.79844897290574079: 1, 0.79839896314638692: 1, 0.79797849255768538: 1, 0.79786372599480271: 1, 0.7972422374364001: 1, 0.79716266871466468: 1, 0.79654812564473554: 1, 0.79641977197913982: 1, 0.79620335651748908: 1, 0.79607160090499651: 1, 0.79581561421931457: 1, 0.79566964496742298: 1, 0.79563131684773658: 1, 0.79542694851711682: 1, 0.79460149837398875: 1, 0.7945668012307614: 1, 0.79425900600173605: 1, 0.79383802984600771: 1, 0.79376230433433859: 1, 0.79374120433065265: 1, 0.79372171638984856: 1, 0.79369223021189084: 1, 0.79335348890293267: 1, 0.7933335344192548: 1, 0.79280341413934274: 1, 0.79255774097759546: 1, 0.7925405116809181: 1, 0.79216585148739138: 1, 0.7920481555194524: 1, 0.7919763451415559: 1, 0.79181195198508092: 1, 0.79153227531241666: 1, 0.79149873025681927: 1, 0.7914039065388383: 1, 0.79120726677177722: 1, 0.79082426667028904: 1, 0.79075042754010039: 1, 0.79041164687227727: 1, 0.79019875840057374: 1, 0.79009844798506268: 1, 0.78981811729570062: 1, 0.78976385987964415: 1, 0.78942406966042111: 1, 0.78937801950174413: 1, 0.78933015257712857: 1, 0.78924480551110399: 1, 0.78905803654989048: 1, 0.78884815538587794: 1, 0.7887796371340986: 1, 0.78874304039467191: 1, 0.78872154238338066: 1, 0.78871838597624255: 1, 0.78847265376766351: 1, 0.78821685024458077: 1, 0.78818929318830444: 1, 0.78798755521111585: 1, 0.78783968467966281: 1, 0.78777840919177478: 1, 0.78755702896967439: 1, 0.78707358258165494: 1, 0.78703998940449404: 1, 0.78703806606925486: 1, 0.78702064726213949: 1, 0.78699391017019016: 1, 0.78694508241739758: 1, 0.78678629820578505: 1, 0.78664668549150352: 1, 0.7866394272986752: 1, 0.78637616292118795: 1, 0.78610482204370979: 1, 0.78601105493239176: 1, 0.78597394794658404: 1, 0.78585186220449377: 1, 0.78576832030160415: 1, 0.78568359968725188: 1, 0.78504872656232649: 1, 0.78455924716649827: 1, 0.78435379236565561: 1, 0.78416152096008152: 1, 0.78412730732577074: 1, 0.7834881600798963: 1, 0.78341508582738784: 1, 0.78268365978244581: 1, 0.78266668245874582: 1, 0.782544429557406: 1, 0.78239469243762549: 1, 0.7822815424667442: 1, 0.78203459890397276: 1, 0.78170905326245554: 1, 0.78157718030740897: 1, 0.78085772438321455: 1, 0.78081823111291271: 1, 0.78079546312903292: 1, 0.78045067765085485: 1, 0.78044131381452053: 1, 0.78035824833209477: 1, 0.78031704821681536: 1, 0.78024887581722469: 1, 0.78018777973888409: 1, 0.77999321565480473: 1, 0.77998781679083085: 1, 0.77978425798665563: 1, 0.77962260309440634: 1, 0.77942973351580547: 1, 0.77932630450579765: 1, 0.7792957649643607: 1, 0.77868524886718171: 1, 0.77867223741141511: 1, 0.7784633474424939: 1, 0.7781636027794242: 1, 0.77807494293608725: 1, 0.77806868554991482: 1, 0.77804185813171678: 1, 0.7775974210337846: 1, 0.77752131134249769: 1, 0.77743987518066215: 1, 0.77722863116980578: 1, 0.77717943168530046: 1, 0.7771645498306865: 1, 0.77711416979521342: 1, 0.77697752712828361: 1, 0.77696932129556728: 1, 0.77653571944141675: 1, 0.77644440999674624: 1, 0.77638899621054247: 1, 0.77609288727402981: 1, 0.77605865934820539: 1, 0.77587926441102217: 1, 0.77581251637866355: 1, 0.77569161284073074: 1, 0.77501648364310638: 1, 0.77485003164437827: 1, 0.77477318505106818: 1, 0.77473845854465817: 1, 0.77451436641011673: 1, 0.77448943480275956: 1, 0.77447409345847007: 1, 0.7744551498522414: 1, 0.77443195923613461: 1, 0.77412673256214504: 1, 0.77401306806801662: 1, 0.77385936525437982: 1, 0.77357947643127745: 1, 0.77346092684383594: 1, 0.77345425793715838: 1, 0.77338299643060482: 1, 0.77335881182622634: 1, 0.77302448344515062: 1, 0.77281747868960615: 1, 0.77262476943348224: 1, 0.77253646641438811: 1, 0.7721526859111012: 1, 0.7721475807112882: 1, 0.77208366961946373: 1, 0.77204798012206277: 1, 0.77199019097245003: 1, 0.77178555412257133: 1, 0.77176708717404918: 1, 0.7716213013523876: 1, 0.7715073684435354: 1, 0.77136302985847305: 1, 0.77125972524622344: 1, 0.7712577785699396: 1, 0.77122447297525631: 1, 0.7712086244432359: 1, 0.77118908296836375: 1, 0.77106854282608706: 1, 0.77080271545101897: 1, 0.7707795607833493: 1, 0.77075254932967918: 1, 0.77052274793475395: 1, 0.77046276292706029: 1, 0.77032364581097057: 1, 0.77029649878762751: 1, 0.77027040366632504: 1, 0.77010523029400646: 1, 0.76941017549082702: 1, 0.76928037030589014: 1, 0.76907938666703346: 1, 0.76905797867543646: 1, 0.76901424231355386: 1, 0.76898004935552067: 1, 0.76886587126439143: 1, 0.7688075874011: 1, 0.76852272644634245: 1, 0.76847184621542586: 1, 0.76812451566784357: 1, 0.76801285697761157: 1, 0.76726792057264548: 1, 0.76698614416333122: 1, 0.76698279585309292: 1, 0.76657605935547601: 1, 0.76624504710941499: 1, 0.76620982012137551: 1, 0.76584668005302736: 1, 0.76578263993468276: 1, 0.76568935019208662: 1, 0.76567134395596814: 1, 0.765528842068677: 1, 0.76547375645517524: 1, 0.76519427476541946: 1, 0.76513185140997086: 1, 0.7650276765975903: 1, 0.76498261186112804: 1, 0.76487322356433884: 1, 0.76459805525341495: 1, 0.76448852980706183: 1, 0.76440499789365546: 1, 0.76403399341245348: 1, 0.76397762798686608: 1, 0.76370680322808993: 1, 0.76368784824933122: 1, 0.76366772597681698: 1, 0.76348632301007802: 1, 0.76343513872634428: 1, 0.76325902664178746: 1, 0.76307189570465417: 1, 0.76296369860011115: 1, 0.76275381872939041: 1, 0.76267936050874752: 1, 0.76262106189764955: 1, 0.76258429206585032: 1, 0.76248467704604816: 1, 0.76242869441078998: 1, 0.76231835462051711: 1, 0.76222178667733687: 1, 0.76216767299541011: 1, 0.76205188660615653: 1, 0.7620366505116527: 1, 0.76174017791763982: 1, 0.76165068794526225: 1, 0.7616267195269959: 1, 0.76146848792518684: 1, 0.76132499322572367: 1, 0.76112920544742035: 1, 0.76111938969039283: 1, 0.76110571371067126: 1, 0.76105354939806491: 1, 0.76075732863812373: 1, 0.76073499002567546: 1, 0.76045906032557775: 1, 0.76008582600153352: 1, 0.76003222839660933: 1, 0.75990779958365007: 1, 0.75989694093372495: 1, 0.75970365067100598: 1, 0.75961953468566057: 1, 0.75953691340442742: 1, 0.75945366122771285: 1, 0.75939671444634171: 1, 0.75913266654696732: 1, 0.75912138722172506: 1, 0.75884346811519376: 1, 0.75879956844429253: 1, 0.75878022142950252: 1, 0.75872890132122872: 1, 0.758718270951525: 1, 0.7586431762557686: 1, 0.75852715367726797: 1, 0.75848143936534917: 1, 0.75822810443574418: 1, 0.75809869999863488: 1, 0.75777787817140263: 1, 0.75746565555505119: 1, 0.75710185336453839: 1, 0.75708062117523567: 1, 0.7569584803101741: 1, 0.75692230304228858: 1, 0.75653029311801456: 1, 0.75648507215937644: 1, 0.75629076804387774: 1, 0.7561487219769033: 1, 0.75575658243117039: 1, 0.75573200361315129: 1, 0.7555202755792958: 1, 0.75547276688524101: 1, 0.75539849245124568: 1, 0.75536460024938623: 1, 0.75518420238608064: 1, 0.75516406764611421: 1, 0.75503019857236087: 1, 0.75500054880622225: 1, 0.75477774518237639: 1, 0.75476088332738533: 1, 0.75376485047649955: 1, 0.75324180709010757: 1, 0.7530930378690015: 1, 0.75276571111691715: 1, 0.75272237664943875: 1, 0.75250764405726756: 1, 0.75249401075575928: 1, 0.75241371573818638: 1, 0.75237650184795413: 1, 0.75180714349505795: 1, 0.75175058316693966: 1, 0.75164177476679683: 1, 0.75149884077277995: 1, 0.75145285794175165: 1, 0.75116275013682277: 1, 0.75100142233648304: 1, 0.75055640086045639: 1, 0.75042471294348634: 1, 0.75008715706817541: 1, 0.75006067190286507: 1, 0.74993315456265286: 1, 0.74992547071161764: 1, 0.74928532013412075: 1, 0.74868423322804878: 1, 0.7485381243000121: 1, 0.74838572087509692: 1, 0.74834497447039983: 1, 0.74821097397283931: 1, 0.74811896931592103: 1, 0.74793505558596263: 1, 0.74787968153702755: 1, 0.7478198423795972: 1, 0.74727868825581834: 1, 0.74704760430627581: 1, 0.74690510717206671: 1, 0.74655975181126344: 1, 0.74643866040265427: 1, 0.74596070973600159: 1, 0.74595826718566804: 1, 0.74577833783066139: 1, 0.7454282830244664: 1, 0.74519711663942689: 1, 0.74497375994629667: 1, 0.74454979068548233: 1, 0.74437979241269481: 1, 0.74427688410945381: 1, 0.74423641392611228: 1, 0.74410800269521837: 1, 0.74382870250969635: 1, 0.74382797833767489: 1, 0.74377218544417256: 1, 0.74361745325354989: 1, 0.74349176816255103: 1, 0.74347500284774848: 1, 0.74327903204368517: 1, 0.7432256900798192: 1, 0.74310058172135185: 1, 0.74302509036453779: 1, 0.74277501482145258: 1, 0.74266880803538926: 1, 0.74191900272507771: 1, 0.74161815670558107: 1, 0.74146133637756595: 1, 0.74137939846338818: 1, 0.74111561661829228: 1, 0.74085191022437136: 1, 0.74078151568981132: 1, 0.74071022890837124: 1, 0.74068792896479929: 1, 0.74029798798162627: 1, 0.7400178031931044: 1, 0.73974873884333647: 1, 0.73922913409389024: 1, 0.73914959940983627: 1, 0.73911098053552848: 1, 0.73907282573945643: 1, 0.73897043208870994: 1, 0.73886915408524567: 1, 0.73864448348184386: 1, 0.73852599114487349: 1, 0.73842214027663877: 1, 0.73834329605046312: 1, 0.73818972278900541: 1, 0.73793024006922392: 1, 0.73787817460077565: 1, 0.7377899576674678: 1, 0.73752141786301406: 1, 0.73750847490773308: 1, 0.73741271251514207: 1, 0.73738392216259963: 1, 0.73685763145737715: 1, 0.73675091289433881: 1, 0.73665753369675879: 1, 0.73665250823236039: 1, 0.73659457905307424: 1, 0.73619467620940138: 1, 0.7359901773055556: 1, 0.73581031731744495: 1, 0.73570051242980072: 1, 0.7356607997733835: 1, 0.73565285372202616: 1, 0.73559004767019409: 1, 0.73556691182188783: 1, 0.73542890822786211: 1, 0.73534383071219411: 1, 0.73523167571748349: 1, 0.73510398564160473: 1, 0.73503707208883939: 1, 0.73478076700569106: 1, 0.73419759786936567: 1, 0.73413376167060451: 1, 0.7338237923188623: 1, 0.73378917587014292: 1, 0.73371295472353726: 1, 0.73370435326633843: 1, 0.73358802364679365: 1, 0.73342184670517285: 1, 0.73339975851482408: 1, 0.73333536391103882: 1, 0.73331306412780173: 1, 0.73322542619914444: 1, 0.73320484044439493: 1, 0.73316359616965976: 1, 0.73309280560436496: 1, 0.73283827325451512: 1, 0.73279905421846614: 1, 0.73278875120516507: 1, 0.73271776002684141: 1, 0.73262352913032147: 1, 0.7325180678752895: 1, 0.73245230390361393: 1, 0.73238059145446255: 1, 0.73196345727647005: 1, 0.73177977662113181: 1, 0.73171093262123954: 1, 0.73159758147715825: 1, 0.73121192090694265: 1, 0.73098010007135328: 1, 0.7308735498490162: 1, 0.73061516659637127: 1, 0.73049287002935037: 1, 0.73013573021445632: 1, 0.72991444870898203: 1, 0.72989410324974557: 1, 0.72984256683401372: 1, 0.72975719446374954: 1, 0.7296417742207163: 1, 0.72949060178248171: 1, 0.72947798901054461: 1, 0.72944389633104034: 1, 0.72906313913056897: 1, 0.72899085367116379: 1, 0.72874904722694123: 1, 0.72874428560696269: 1, 0.72857325333094469: 1, 0.72841075624976392: 1, 0.72840496338203331: 1, 0.72807435142082189: 1, 0.7278833167373796: 1, 0.72785731924510111: 1, 0.72772813473402409: 1, 0.72752294302503284: 1, 0.72740576285650727: 1, 0.7273310623596998: 1, 0.72731065667712047: 1, 0.72727303935304066: 1, 0.72704364536378252: 1, 0.72701578365350406: 1, 0.7270129034975723: 1, 0.72681537975223132: 1, 0.72670670410254323: 1, 0.72668476781950042: 1, 0.72660762250485156: 1, 0.72651758312238002: 1, 0.7263263658321798: 1, 0.72619913257260238: 1, 0.72611799452488157: 1, 0.72608751909979685: 1, 0.72606515820105477: 1, 0.72600244058235563: 1, 0.7259440116247089: 1, 0.72557172503061462: 1, 0.72556179056959658: 1, 0.72553956021264787: 1, 0.72509635899281666: 1, 0.72508444049799681: 1, 0.72505354221540452: 1, 0.72503028557918203: 1, 0.72471796135758115: 1, 0.72465725043830198: 1, 0.72457615824925814: 1, 0.72438275205699654: 1, 0.72425072866714968: 1, 0.72401593230097883: 1, 0.72398447973218649: 1, 0.72385479521346807: 1, 0.723754288525292: 1, 0.72364420590117007: 1, 0.72363680562394328: 1, 0.72327182200057427: 1, 0.72239001930036317: 1, 0.72229887136493254: 1, 0.72225011164272068: 1, 0.72215584305600811: 1, 0.72215471023630962: 1, 0.72212481064786871: 1, 0.72158158336966705: 1, 0.72133323413078565: 1, 0.72130301410983499: 1, 0.72127847582785964: 1, 0.72125699394887799: 1, 0.72125177665010975: 1, 0.72124534804798068: 1, 0.72121151790676508: 1, 0.72104949957653863: 1, 0.72074796532914454: 1, 0.72068524673322654: 1, 0.720569962926356: 1, 0.72053145878614766: 1, 0.72025085493090057: 1, 0.72020500213417626: 1, 0.7201961397889094: 1, 0.71998530831495933: 1, 0.71991648200044278: 1, 0.71977337211518755: 1, 0.7197090810179686: 1, 0.71963496715725328: 1, 0.71959083246289723: 1, 0.71949520062674199: 1, 0.7191706795118108: 1, 0.71899248485595124: 1, 0.71893776232105844: 1, 0.71885628005266489: 1, 0.71861852870295984: 1, 0.71861148264443908: 1, 0.71838763899267777: 1, 0.71832348312115779: 1, 0.71829254880592774: 1, 0.71828025344947855: 1, 0.71821750308421439: 1, 0.71817440219957274: 1, 0.71778402615094083: 1, 0.71770209038265786: 1, 0.71753169823382779: 1, 0.71734483504746449: 1, 0.71723635985544887: 1, 0.71719111113025458: 1, 0.71682095623709374: 1, 0.71654256020066343: 1, 0.7164550585059154: 1, 0.71628917262193259: 1, 0.71621909938627049: 1, 0.71614454604923095: 1, 0.71574299290536336: 1, 0.71559523641671363: 1, 0.71554524149748899: 1, 0.71526141982351166: 1, 0.71514156243615801: 1, 0.71502600478497935: 1, 0.71483361420052849: 1, 0.71481717733077865: 1, 0.71480448024193244: 1, 0.71463507683050387: 1, 0.71454477745194922: 1, 0.71433144022150286: 1, 0.71420558646706511: 1, 0.71417577893605499: 1, 0.71404256426437684: 1, 0.7137124872099635: 1, 0.71367812576886513: 1, 0.71343885497489323: 1, 0.71311464946918146: 1, 0.71298865017513846: 1, 0.71266545149550042: 1, 0.71253615461998265: 1, 0.71226814021066376: 1, 0.71220177541054641: 1, 0.7121998816522499: 1, 0.71219227632792104: 1, 0.71210709795828098: 1, 0.71205938325924178: 1, 0.71204418134864067: 1, 0.71203047463363167: 1, 0.71194189814334141: 1, 0.71160850216311911: 1, 0.71159190501627001: 1, 0.71140343753159041: 1, 0.71127146571539579: 1, 0.71076921908121982: 1, 0.71075274958662149: 1, 0.71045547387961483: 1, 0.71025974306873163: 1, 0.71022828127288384: 1, 0.71020967463891005: 1, 0.71008503081694441: 1, 0.70961708143839253: 1, 0.70952817665093371: 1, 0.70949627833504625: 1, 0.70907043596502284: 1, 0.70885973918737866: 1, 0.7085397357686225: 1, 0.70833355092527783: 1, 0.70816495279275671: 1, 0.70813316381152913: 1, 0.70790955941114131: 1, 0.70776855091820468: 1, 0.70769835132606929: 1, 0.70765215180239749: 1, 0.70737126525235028: 1, 0.70724851219631579: 1, 0.70722745777405371: 1, 0.707198355399281: 1, 0.70699005660950764: 1, 0.70679811173094786: 1, 0.7067651207593364: 1, 0.70669624969715039: 1, 0.70665437106697981: 1, 0.70662255113112937: 1, 0.70645748728017477: 1, 0.70620714511342908: 1, 0.7059667093922285: 1, 0.70595263454081569: 1, 0.70590491393164545: 1, 0.70579214985795768: 1, 0.70554728142512013: 1, 0.70550663752543463: 1, 0.70541028401103401: 1, 0.70532838461855218: 1, 0.7052153468741249: 1, 0.70513191750566473: 1, 0.70497502284338709: 1, 0.70467473750517451: 1, 0.70465962465633647: 1, 0.70440768554012323: 1, 0.70440227166702074: 1, 0.70437295426055246: 1, 0.70388548811255414: 1, 0.70369812301050927: 1, 0.7036292361772597: 1, 0.70356868959158569: 1, 0.70349641370541771: 1, 0.70346798780806807: 1, 0.70342918321541026: 1, 0.70333963306253522: 1, 0.70323946608147636: 1, 0.70303602754605632: 1, 0.70264082300147512: 1, 0.70256307650240724: 1, 0.70248112301652499: 1, 0.70241675645948654: 1, 0.70231140142407811: 1, 0.7018206396125124: 1, 0.701768003525574: 1, 0.70165764824607013: 1, 0.70163690298409298: 1, 0.70159288373537743: 1, 0.70156518619716524: 1, 0.70153516776147384: 1, 0.70141830287937368: 1, 0.70133141268758381: 1, 0.70132399886566443: 1, 0.70105399298432636: 1, 0.70104225897695993: 1, 0.70095507267936374: 1, 0.70068588993749792: 1, 0.70062544663106741: 1, 0.70050165108687867: 1, 0.70020905321808091: 1, 0.70003439477224283: 1, 0.69997708552863758: 1, 0.69980098897647258: 1, 0.69973267852966115: 1, 0.69970576221088565: 1, 0.69964647440246652: 1, 0.69961810428469406: 1, 0.69952964807593143: 1, 0.69945277183026011: 1, 0.69942649255843592: 1, 0.69929661088530548: 1, 0.69928228494520894: 1, 0.69921233047649212: 1, 0.69903468736452057: 1, 0.69902315795640868: 1, 0.69898687948898031: 1, 0.69875195606922891: 1, 0.69871932280989102: 1, 0.69866867951333933: 1, 0.69858651496338253: 1, 0.69822588803915142: 1, 0.69816283934056855: 1, 0.69814986414238889: 1, 0.69813425591557865: 1, 0.6981328090107406: 1, 0.69810235497740947: 1, 0.69796820493148437: 1, 0.69787180281468086: 1, 0.69738827097452349: 1, 0.69738769023857683: 1, 0.69729828172120456: 1, 0.69703232397869552: 1, 0.69676770239294816: 1, 0.69672430010647501: 1, 0.69669686617221771: 1, 0.69647049477429657: 1, 0.69644478224239525: 1, 0.69627845526621301: 1, 0.69625023796906471: 1, 0.6960708756331383: 1, 0.69575990454018966: 1, 0.69568186729290327: 1, 0.69560882704805693: 1, 0.69545822475985719: 1, 0.69543306524672976: 1, 0.69518492283600097: 1, 0.69499555264164625: 1, 0.6949011931125878: 1, 0.69483879695424955: 1, 0.69480060907881291: 1, 0.69475917264946951: 1, 0.69462275185281119: 1, 0.69442451719437392: 1, 0.69437043458383874: 1, 0.69427605033562856: 1, 0.69415270285825736: 1, 0.69402226581427062: 1, 0.69396679130224592: 1, 0.69382691326973178: 1, 0.693802556775444: 1, 0.69369205385660426: 1, 0.69362999476549803: 1, 0.693446548650828: 1, 0.69336618236111025: 1, 0.69333412089968383: 1, 0.69309429073393725: 1, 0.6929799595449081: 1, 0.69288345251243644: 1, 0.69283781316220416: 1, 0.69279749358263953: 1, 0.6924740640975382: 1, 0.69243207454335753: 1, 0.69241312072855365: 1, 0.69234870784222191: 1, 0.69210011346769207: 1, 0.69209158565180862: 1, 0.69206340807247613: 1, 0.6919721491099815: 1, 0.69186875381841428: 1, 0.69186192642434119: 1, 0.69173037680524796: 1, 0.69167545755033255: 1, 0.69134746564672811: 1, 0.6910377462862487: 1, 0.69100538188095795: 1, 0.69077919399676968: 1, 0.69068669016633144: 1, 0.69028752974699814: 1, 0.69011470199443914: 1, 0.69005283793041883: 1, 0.68983361929203613: 1, 0.68974785948552719: 1, 0.68972884896242992: 1, 0.68966883586055527: 1, 0.68946609910945533: 1, 0.68930376102077329: 1, 0.6890635251856031: 1, 0.68903860113421067: 1, 0.68902478420294866: 1, 0.68900183443181828: 1, 0.68894914873552016: 1, 0.68893919220537758: 1, 0.68870976686201923: 1, 0.68841739819534431: 1, 0.68833793625618778: 1, 0.68833076354137357: 1, 0.68832051745446787: 1, 0.68826260474196266: 1, 0.6882571605497757: 1, 0.68824930506835069: 1, 0.68802897083753967: 1, 0.68776072500560337: 1, 0.68758970709624445: 1, 0.68741208262081099: 1, 0.6872840098380627: 1, 0.68726457305667488: 1, 0.68712305216480096: 1, 0.6869144630836489: 1, 0.68687544475427742: 1, 0.68675737591381647: 1, 0.68666223156527517: 1, 0.68665276522410501: 1, 0.6865437379557392: 1, 0.68622996326018115: 1, 0.68598741013269138: 1, 0.68578609363533827: 1, 0.68559412573294809: 1, 0.68556870072568288: 1, 0.68549572881674969: 1, 0.68543389695829726: 1, 0.68530120853822885: 1, 0.68514683769780771: 1, 0.6845033948423358: 1, 0.68423111349493526: 1, 0.68413885373067462: 1, 0.68410104270804817: 1, 0.68399496373111368: 1, 0.68393590903595036: 1, 0.68392630899597717: 1, 0.68387136443785257: 1, 0.68373193257322873: 1, 0.68370692853121551: 1, 0.68338107647728841: 1, 0.68332385444633426: 1, 0.68313473365169486: 1, 0.68273538446109638: 1, 0.68268704524352608: 1, 0.682553771752334: 1, 0.68229906472001955: 1, 0.68170701485986618: 1, 0.6816787660137269: 1, 0.68156168867483791: 1, 0.68139122755079973: 1, 0.68134455271243921: 1, 0.68131134827285633: 1, 0.68117083212338192: 1, 0.68111125501943659: 1, 0.68095584064661507: 1, 0.68075032859120921: 1, 0.68057103009459963: 1, 0.68053167419923577: 1, 0.68047855154729719: 1, 0.68043340651117212: 1, 0.68033712368003185: 1, 0.68021190090835582: 1, 0.6801359587460597: 1, 0.68000583500621437: 1, 0.67987944339052486: 1, 0.67986417338740779: 1, 0.67981474970014266: 1, 0.67975601130769103: 1, 0.6797464639584353: 1, 0.67960053746336546: 1, 0.6793118971363753: 1, 0.67925129404633033: 1, 0.67894445504831635: 1, 0.67882934347580282: 1, 0.67880601007136887: 1, 0.678730362323824: 1, 0.67867019001784101: 1, 0.67846442105466276: 1, 0.67833477177536816: 1, 0.67820261107919821: 1, 0.67784551355814071: 1, 0.67778889903939443: 1, 0.67778139468405818: 1, 0.67774507235216097: 1, 0.67766957548630746: 1, 0.67765765191780392: 1, 0.67765361353932596: 1, 0.67745415352959393: 1, 0.67743306109756884: 1, 0.67739444133151716: 1, 0.67733864345286832: 1, 0.67729196071843223: 1, 0.67722662541147516: 1, 0.67722231351869133: 1, 0.67713853749315689: 1, 0.6771167738656606: 1, 0.67656765581712253: 1, 0.67634077354263378: 1, 0.67616541260794971: 1, 0.67612917849606069: 1, 0.67599675841455298: 1, 0.67554965888228613: 1, 0.67540997653663526: 1, 0.6752318803315428: 1, 0.67520001133973284: 1, 0.67518192426051127: 1, 0.67498595841560405: 1, 0.6749230133632147: 1, 0.67491418969983563: 1, 0.67489215777728817: 1, 0.67486951541023543: 1, 0.67484919379357067: 1, 0.67474522365801604: 1, 0.67463381620131013: 1, 0.67456443310734104: 1, 0.67451112032033778: 1, 0.67443947166605933: 1, 0.67429260320890794: 1, 0.67407681216714266: 1, 0.67404249803516003: 1, 0.67381377033049317: 1, 0.67381159517605205: 1, 0.67363844451785548: 1, 0.67353915758896121: 1, 0.673461218011014: 1, 0.6733896651260094: 1, 0.6733564121615927: 1, 0.67334931977500578: 1, 0.67331679787605403: 1, 0.67325509719224075: 1, 0.67325305880537778: 1, 0.67323274731115235: 1, 0.67323194020027544: 1, 0.67306611000931538: 1, 0.67295137062586474: 1, 0.67293885848235635: 1, 0.6728681061882642: 1, 0.67278239804555839: 1, 0.67276397801616306: 1, 0.67271227538467415: 1, 0.6727007218743456: 1, 0.67266984451982748: 1, 0.67264096928519923: 1, 0.67242418547739347: 1, 0.67239588541714135: 1, 0.6723806486717705: 1, 0.67237569300967515: 1, 0.67216622880457011: 1, 0.67213979550066205: 1, 0.67213115822603864: 1, 0.67166766195788485: 1, 0.6716255494455059: 1, 0.67132059049350823: 1, 0.67124058703853184: 1, 0.67090371896595968: 1, 0.67080181206355871: 1, 0.67009260694508355: 1, 0.67006916032416952: 1, 0.66997532428643403: 1, 0.66994786979024434: 1, 0.66988206578856513: 1, 0.66983221424273964: 1, 0.66981368568208166: 1, 0.66978818855218336: 1, 0.66972214516404038: 1, 0.66967613688266492: 1, 0.66964390113649175: 1, 0.66959750559350972: 1, 0.66948859188272725: 1, 0.66941676864584854: 1, 0.66911102623736052: 1, 0.66884976086951287: 1, 0.66883755684980939: 1, 0.66864556336150083: 1, 0.66859647702459424: 1, 0.66855015050895938: 1, 0.66854318817247371: 1, 0.66849318164729743: 1, 0.66828409633532659: 1, 0.66821143996098076: 1, 0.66818698256227149: 1, 0.66781919123459965: 1, 0.6677953143250952: 1, 0.66775564945078913: 1, 0.66763728954875046: 1, 0.66760935791844533: 1, 0.66760583472896506: 1, 0.66747051132521007: 1, 0.66734135304703468: 1, 0.66733799298158158: 1, 0.66718302231546245: 1, 0.66689669801835205: 1, 0.66689253564816231: 1, 0.66683611169776402: 1, 0.66665750199104989: 1, 0.66652964684293459: 1, 0.66642702694359601: 1, 0.66638847210846441: 1, 0.66633228945984102: 1, 0.66628045681588521: 1, 0.66624438335691394: 1, 0.66612052344134054: 1, 0.66602332750253779: 1, 0.66601320358461602: 1, 0.66595632995901399: 1, 0.66572134616603595: 1, 0.66558591072977724: 1, 0.66552982007126282: 1, 0.66551995543041198: 1, 0.66519307619646606: 1, 0.66507509775134155: 1, 0.66506959807847743: 1, 0.6650414887540318: 1, 0.66501788426704511: 1, 0.66499553931636934: 1, 0.66494889084837472: 1, 0.66494048124867711: 1, 0.66477751575380428: 1, 0.6646564354268123: 1, 0.66456738288745987: 1, 0.6645394152569688: 1, 0.66417687043971674: 1, 0.66405001887630299: 1, 0.66402758670184714: 1, 0.6638600575239475: 1, 0.6638238744436914: 1, 0.66380846683541161: 1, 0.66348892245088076: 1, 0.6634275462304966: 1, 0.66341395472199538: 1, 0.66332472095876471: 1, 0.66306628622421404: 1, 0.66296937804450351: 1, 0.66295370736168435: 1, 0.66280372760140605: 1, 0.66273037732690898: 1, 0.66269086800320076: 1, 0.66252689423792233: 1, 0.66238562270525192: 1, 0.66230810726990275: 1, 0.6620964492105007: 1, 0.66207719962988343: 1, 0.66204170502956106: 1, 0.66202826200202225: 1, 0.66187202279032209: 1, 0.66174975665855429: 1, 0.6616964080021468: 1, 0.66157155579879523: 1, 0.66149107416609032: 1, 0.66096785834187399: 1, 0.66056967120036025: 1, 0.66055527854644702: 1, 0.66040067979787731: 1, 0.66031090930849901: 1, 0.66024233574451685: 1, 0.66023979927169651: 1, 0.66014319576278691: 1, 0.65997961883694423: 1, 0.65967215295182868: 1, 0.65964710821840566: 1, 0.65948625178402998: 1, 0.65946752126454911: 1, 0.6594322774049477: 1, 0.65903777364655103: 1, 0.65865562480773099: 1, 0.65847907745445999: 1, 0.65831843370754506: 1, 0.65820033759112884: 1, 0.65809764283059968: 1, 0.65797096358588003: 1, 0.65786020120263966: 1, 0.65783511924776406: 1, 0.6577375378745618: 1, 0.65731032580758786: 1, 0.6572320899690669: 1, 0.6571872518030869: 1, 0.6571802142903177: 1, 0.65702315252770338: 1, 0.65701210928647158: 1, 0.65682904367882877: 1, 0.6567174870617053: 1, 0.656667314500187: 1, 0.65645457290549636: 1, 0.65611434769746035: 1, 0.65598734031033956: 1, 0.65590635230665184: 1, 0.65590056221479154: 1, 0.65560088667146832: 1, 0.6555995644143251: 1, 0.65546144886604873: 1, 0.65522366521886621: 1, 0.65517960257783969: 1, 0.65512271637352504: 1, 0.65510100028337015: 1, 0.65505777809853394: 1, 0.65478165019170964: 1, 0.65461921069742179: 1, 0.654539812194467: 1, 0.65449558973304078: 1, 0.65415939753563646: 1, 0.6541552471145391: 1, 0.65411670025219015: 1, 0.65373287843766603: 1, 0.65338477425920816: 1, 0.65314174862597374: 1, 0.65313247465599855: 1, 0.65288085804246476: 1, 0.65288063317907818: 1, 0.6528096477684332: 1, 0.65278229011300337: 1, 0.65254072646920724: 1, 0.65245753223104574: 1, 0.65236745849742062: 1, 0.65234164034222863: 1, 0.65217305802282688: 1, 0.65216055780643722: 1, 0.65205289100958064: 1, 0.65184683034141711: 1, 0.65184159473824277: 1, 0.65179127298845629: 1, 0.65165616270804749: 1, 0.65162860333685868: 1, 0.65153208115867989: 1, 0.65143048186342456: 1, 0.65120597836354577: 1, 0.65112761544467113: 1, 0.65111148912864347: 1, 0.65097413971079765: 1, 0.65078471734181509: 1, 0.65059319162019569: 1, 0.65057771602746384: 1, 0.65052356296946146: 1, 0.65049775963015977: 1, 0.65027334406907589: 1, 0.65021344499989808: 1, 0.65013247805027641: 1, 0.65009244356532681: 1, 0.64990686903392958: 1, 0.64987181686424544: 1, 0.64976719283272444: 1, 0.64963426144435854: 1, 0.64949435168290115: 1, 0.64921052337571183: 1, 0.64915050488110126: 1, 0.64881618756766868: 1, 0.64863026649555333: 1, 0.64808355551681363: 1, 0.64807978060202642: 1, 0.64807211803430709: 1, 0.64796355453640353: 1, 0.64789965467702193: 1, 0.64774847280525494: 1, 0.64763150685613358: 1, 0.64762834841735772: 1, 0.6476141206387992: 1, 0.64755104854837031: 1, 0.6475373775118769: 1, 0.64734395207694806: 1, 0.64679876687248949: 1, 0.64665165935565672: 1, 0.64663217835914955: 1, 0.64646726886382999: 1, 0.6463740437816593: 1, 0.64622244605719092: 1, 0.64620846603879778: 1, 0.64614313778921029: 1, 0.64613432628032208: 1, 0.64611255449822569: 1, 0.64575277211584203: 1, 0.64574561604605307: 1, 0.64537550229157192: 1, 0.64519993878075566: 1, 0.64519594383330703: 1, 0.64508159212396687: 1, 0.64490386603990679: 1, 0.64462306609439302: 1, 0.64461293588559465: 1, 0.64450694631153727: 1, 0.64447894899344671: 1, 0.64442092709414456: 1, 0.64437771096110874: 1, 0.64420731599080761: 1, 0.64418140760501574: 1, 0.64407247403243528: 1, 0.64402923829945458: 1, 0.64396930371956129: 1, 0.64395695171271927: 1, 0.6438955966152079: 1, 0.64389025948001366: 1, 0.64375767640932335: 1, 0.64372632347533887: 1, 0.64360871004275699: 1, 0.64353094161782187: 1, 0.64345394470194206: 1, 0.64338140563760493: 1, 0.64333276017117857: 1, 0.6432864564951406: 1, 0.64311350414171997: 1, 0.64295604239352999: 1, 0.64292636586502228: 1, 0.64278155640914925: 1, 0.64276034159824558: 1, 0.64267050622472643: 1, 0.64263605172184601: 1, 0.64242109059381425: 1, 0.6422460344539882: 1, 0.64208914254816019: 1, 0.64194418961041322: 1, 0.64185504609148025: 1, 0.64181536930515237: 1, 0.64157154448361442: 1, 0.64146889541005214: 1, 0.64116850904204037: 1, 0.64115478309932927: 1, 0.64099091489410165: 1, 0.6409472145774272: 1, 0.6408149558644245: 1, 0.64075505326076487: 1, 0.64070178736782679: 1, 0.64065895664785688: 1, 0.64018802210892223: 1, 0.64015096117709192: 1, 0.64014629910579945: 1, 0.64009278241867396: 1, 0.64001436080357799: 1, 0.63992738050044573: 1, 0.63986233077414545: 1, 0.6396953426827624: 1, 0.63966796680419125: 1, 0.63949700937343401: 1, 0.63944758983321093: 1, 0.63915957453936156: 1, 0.63905954876774196: 1, 0.63880781114842056: 1, 0.63872474979639005: 1, 0.63866649925576668: 1, 0.63845002853712707: 1, 0.63791515709155544: 1, 0.63773668130486849: 1, 0.63772052140802604: 1, 0.63753788686834123: 1, 0.63706888743473655: 1, 0.63705482878039765: 1, 0.63701094219482735: 1, 0.63663922756554892: 1, 0.63657964962662295: 1, 0.6362258955174771: 1, 0.63621554364964694: 1, 0.63612613265709672: 1, 0.63608326472349208: 1, 0.63579735289574679: 1, 0.63573412961790976: 1, 0.63559893246468258: 1, 0.63546492004729727: 1, 0.63545900108604991: 1, 0.63539548955456637: 1, 0.63538851501279936: 1, 0.63524951703145949: 1, 0.63519366737940763: 1, 0.63505748996664513: 1, 0.63488977367813015: 1, 0.63463219842881124: 1, 0.63456752035807629: 1, 0.63453072051939718: 1, 0.63443039935502132: 1, 0.63429722671343636: 1, 0.63401331627460766: 1, 0.63400610735132035: 1, 0.63391639275209632: 1, 0.63376165256482375: 1, 0.63370831764868241: 1, 0.63368742011777368: 1, 0.63368462234414547: 1, 0.63357670228373975: 1, 0.63355683048463152: 1, 0.63348392468358972: 1, 0.63336138793310026: 1, 0.63333373693629924: 1, 0.63323109756315665: 1, 0.6331662220668699: 1, 0.633124797392557: 1, 0.63296480602292404: 1, 0.63287457786665469: 1, 0.63269507952296988: 1, 0.6325885804399819: 1, 0.63243386077613395: 1, 0.63214386652629129: 1, 0.63177757354009612: 1, 0.63162759976266469: 1, 0.6313939355659719: 1, 0.63130352609830076: 1, 0.63103363254994005: 1, 0.63079040511095463: 1, 0.63075485977379953: 1, 0.63051720568211267: 1, 0.63024041613202686: 1, 0.63008483998863851: 1, 0.62978176313933354: 1, 0.62964287545550279: 1, 0.62953871202127198: 1, 0.62942267778523375: 1, 0.62935635454161076: 1, 0.62931489168206056: 1, 0.62926321496819071: 1, 0.62924904119309166: 1, 0.62916932560962457: 1, 0.62902708208101321: 1, 0.62892047626218606: 1, 0.62876507053068986: 1, 0.62858815746208418: 1, 0.62853321545072638: 1, 0.62846695175326817: 1, 0.62839452825439401: 1, 0.62798286550350713: 1, 0.62791014642471965: 1, 0.62788179229531316: 1, 0.62784628226690464: 1, 0.62773374283665995: 1, 0.62770634516595347: 1, 0.62766426989015389: 1, 0.6275417812639118: 1, 0.62749276830655265: 1, 0.62720828068743417: 1, 0.62718573513548259: 1, 0.62713514348605903: 1, 0.62709072853736403: 1, 0.62691139675582852: 1, 0.62683347778038878: 1, 0.62676315691065287: 1, 0.62670770013665056: 1, 0.62667073252240946: 1, 0.62656165104345285: 1, 0.62644122034184568: 1, 0.62641567987421998: 1, 0.62640586986302416: 1, 0.62620603443813039: 1, 0.62576344257264438: 1, 0.62571057869534297: 1, 0.62550194654456448: 1, 0.62544111875860153: 1, 0.62530723304126667: 1, 0.62523985209075505: 1, 0.62523165438397643: 1, 0.62515312673495249: 1, 0.62463606076794298: 1, 0.62462979474880009: 1, 0.6245214553853633: 1, 0.62448358362208356: 1, 0.62410807241230193: 1, 0.62392081182736692: 1, 0.62378454598706146: 1, 0.62371044016036037: 1, 0.6236651669388884: 1, 0.62364857142651475: 1, 0.62362705347119274: 1, 0.62355096888003703: 1, 0.62345308466744453: 1, 0.62342222384525814: 1, 0.62333381323152437: 1, 0.62331193762520332: 1, 0.62324407675245108: 1, 0.62323703729453606: 1, 0.62312888155247315: 1, 0.6230712920595155: 1, 0.62284992727365396: 1, 0.62275566212484568: 1, 0.62271640759727875: 1, 0.62258764608707895: 1, 0.62256799407307084: 1, 0.62220635196919916: 1, 0.62206375121975899: 1, 0.6219562429622475: 1, 0.62186475866074975: 1, 0.62161512537890506: 1, 0.62152363592203896: 1, 0.62146496866872447: 1, 0.62137374429416936: 1, 0.62134130056180537: 1, 0.6212977751351576: 1, 0.62088109756154086: 1, 0.62083842420699686: 1, 0.62072584460334224: 1, 0.62055731576841322: 1, 0.62055065512567253: 1, 0.620524849225075: 1, 0.62050360463785259: 1, 0.62036395759941065: 1, 0.62031553729055033: 1, 0.62011522372550165: 1, 0.62009557918461999: 1, 0.62002772550679841: 1, 0.61962509580460545: 1, 0.61953170119255863: 1, 0.61952348977188032: 1, 0.61943129249796858: 1, 0.61938575752662339: 1, 0.61891827856684556: 1, 0.61889163765735311: 1, 0.61880064862071982: 1, 0.61878119251556085: 1, 0.61861029295003134: 1, 0.61860146849838771: 1, 0.61850109718808: 1, 0.61843873322802323: 1, 0.61841436484507373: 1, 0.61841087426989394: 1, 0.61836682846900637: 1, 0.61828241596922207: 1, 0.61795235309564012: 1, 0.61794306661924092: 1, 0.61783584125295521: 1, 0.61751978948710029: 1, 0.61751801446229393: 1, 0.61749578754882872: 1, 0.61748104480599042: 1, 0.61715519272572061: 1, 0.6169737456243134: 1, 0.61677424318115404: 1, 0.61644454325477549: 1, 0.61636078160686925: 1, 0.61623529362344776: 1, 0.61617898216104894: 1, 0.61589450450628858: 1, 0.61581846943720797: 1, 0.61581383277608281: 1, 0.61553564774792735: 1, 0.61553131729074895: 1, 0.61545049642171867: 1, 0.6154298320710424: 1, 0.61532827594407646: 1, 0.61529889515984326: 1, 0.61521452636642937: 1, 0.61503003827737202: 1, 0.61499602042234724: 1, 0.61498490022675745: 1, 0.61472366322717176: 1, 0.61467708231514273: 1, 0.6142648432404918: 1, 0.61422214123815166: 1, 0.61417766549351982: 1, 0.61417541724598124: 1, 0.61406192310077501: 1, 0.61389790806328459: 1, 0.61369167777897815: 1, 0.61363695583413991: 1, 0.61356500950232096: 1, 0.61321787605840938: 1, 0.61288245515438389: 1, 0.61278913192902462: 1, 0.6125598291877109: 1, 0.61237625357646919: 1, 0.6121299571390556: 1, 0.61195021261148497: 1, 0.61190657678444038: 1, 0.61177583511218503: 1, 0.61165173058108158: 1, 0.61162547342580353: 1, 0.61142453245443895: 1, 0.61140126599108957: 1, 0.61128806684181203: 1, 0.61127448548334495: 1, 0.61124855194553362: 1, 0.61110534296357011: 1, 0.61101779746382312: 1, 0.61098245795685591: 1, 0.61086538371768895: 1, 0.61077217555914298: 1, 0.61054834125132995: 1, 0.61054458635153896: 1, 0.61050746036842207: 1, 0.61043203511968869: 1, 0.61039682043733468: 1, 0.61035100522011276: 1, 0.61034991521453619: 1, 0.61034266128314496: 1, 0.61020481660462822: 1, 0.61017472639175996: 1, 0.6101617046054133: 1, 0.61006645016135608: 1, 0.60967472379706555: 1, 0.6095796201628193: 1, 0.60947417632521761: 1, 0.6093691424396116: 1, 0.60932886446243206: 1, 0.60917334523672872: 1, 0.60914680973916335: 1, 0.60913935066431157: 1, 0.60909555202312826: 1, 0.60909170407666746: 1, 0.60906271398193201: 1, 0.60901064908673597: 1, 0.60899956266089683: 1, 0.6088293769635309: 1, 0.60864424743715451: 1, 0.60816229290913648: 1, 0.60812113914695232: 1, 0.6080930308466882: 1, 0.60806173706869016: 1, 0.6077464501630655: 1, 0.60764679942355326: 1, 0.60750763772927086: 1, 0.60749395773066595: 1, 0.60713016741188663: 1, 0.60706239087148506: 1, 0.60696724023400894: 1, 0.60688148565285882: 1, 0.60678481671689954: 1, 0.60677522011609275: 1, 0.60672608790115079: 1, 0.6063934537060961: 1, 0.60600030324658871: 1, 0.60593368450645224: 1, 0.60561081663093619: 1, 0.60537642298500638: 1, 0.60537018852362812: 1, 0.60521494216533089: 1, 0.60509705034141514: 1, 0.60507497445821179: 1, 0.60498841902003442: 1, 0.60472129772383254: 1, 0.60468242514225845: 1, 0.60458016280201454: 1, 0.60452556301299543: 1, 0.60440076617866401: 1, 0.60435313355926368: 1, 0.60427885222741795: 1, 0.60417976285514363: 1, 0.6041226099535919: 1, 0.604092459298464: 1, 0.60401620050432137: 1, 0.60387201752412556: 1, 0.60386446835474838: 1, 0.60366031531732567: 1, 0.60364643795505546: 1, 0.60349555886070894: 1, 0.60338625722961281: 1, 0.60280347709209325: 1, 0.60266723456257765: 1, 0.60262127006920962: 1, 0.60256950292314593: 1, 0.60249309733053136: 1, 0.60221256889353358: 1, 0.6021452906491882: 1, 0.6020210144611795: 1, 0.60170870119728237: 1, 0.60161198242620562: 1, 0.6016114983641343: 1, 0.60153491163654127: 1, 0.60143090545810363: 1, 0.601267772187422: 1, 0.60124749518488296: 1, 0.60105665488011939: 1, 0.60102285932808341: 1, 0.60100018211145045: 1, 0.60081420369728966: 1, 0.60079062865236676: 1, 0.60074404050122676: 1, 0.60051194106729056: 1, 0.60038095860700458: 1, 0.60003891989763558: 1, 0.60001215630149063: 1, 0.59983440535404564: 1, 0.5998168160648889: 1, 0.59959648730523962: 1, 0.59952505186939986: 1, 0.59942119264367055: 1, 0.59936131790638247: 1, 0.59925870211062859: 1, 0.59919241535006484: 1, 0.5989727374430639: 1, 0.59881382299234398: 1, 0.59873803326315711: 1, 0.59872799673508936: 1, 0.59845614930122759: 1, 0.59830177247884098: 1, 0.59825502622289317: 1, 0.59804467171469888: 1, 0.5980279600805023: 1, 0.59783766503223723: 1, 0.59762144288620433: 1, 0.59761893450814418: 1, 0.59739255984194484: 1, 0.59704707020603731: 1, 0.59696240035165582: 1, 0.5967618422427462: 1, 0.59675549976167697: 1, 0.59674422788506343: 1, 0.59673225907121141: 1, 0.59671848546350736: 1, 0.59666761476278574: 1, 0.59651690500979671: 1, 0.59611112215727091: 1, 0.59600421924042279: 1, 0.59598858094411811: 1, 0.59598030465069096: 1, 0.59584484400782534: 1, 0.59564085834665703: 1, 0.59557949131015364: 1, 0.59550099925942379: 1, 0.59546881727749101: 1, 0.59543091473210352: 1, 0.59539972061024105: 1, 0.59538226701326369: 1, 0.59536207371363037: 1, 0.59536168170329462: 1, 0.59516473591857366: 1, 0.59514385059373665: 1, 0.59497436356564748: 1, 0.59496604884854798: 1, 0.59488967211237243: 1, 0.59488656688319241: 1, 0.59480089257718449: 1, 0.59464194057493847: 1, 0.59436510721792768: 1, 0.59434073621496331: 1, 0.59371106668492724: 1, 0.59358854002409023: 1, 0.59354873850140699: 1, 0.59334523897210056: 1, 0.59331589082415981: 1, 0.59316297983026889: 1, 0.59282084492365872: 1, 0.59261771844555899: 1, 0.59259197952292142: 1, 0.59257433571588802: 1, 0.59257107178942903: 1, 0.59251003855953199: 1, 0.59246688150382454: 1, 0.592410665884332: 1, 0.59196127048366143: 1, 0.591944617116266: 1, 0.59191514028807979: 1, 0.59173151457286499: 1, 0.59157785457646361: 1, 0.59156414408331248: 1, 0.59129968272534139: 1, 0.5912915508075296: 1, 0.59119739393059645: 1, 0.59117158716058649: 1, 0.59116538687244258: 1, 0.59111363972887254: 1, 0.59095070175848174: 1, 0.59091399191680061: 1, 0.59085268738577967: 1, 0.59072069355615919: 1, 0.59067397179444525: 1, 0.59061398411630506: 1, 0.59054956818143167: 1, 0.59054721323633175: 1, 0.59011256619768127: 1, 0.58985854591927667: 1, 0.58983200120520363: 1, 0.58925625377602087: 1, 0.58922664706839312: 1, 0.58888996097784196: 1, 0.58876530058798904: 1, 0.58869699318483548: 1, 0.58848465283869711: 1, 0.58843799513725725: 1, 0.58806790971301959: 1, 0.58806196211578066: 1, 0.58805657301017555: 1, 0.58799944499003765: 1, 0.58798246670401155: 1, 0.58785500400952673: 1, 0.58769622102695918: 1, 0.58764886561631002: 1, 0.58762594319282113: 1, 0.58754075393060512: 1, 0.58745327774347256: 1, 0.58742832876198392: 1, 0.58740650971666697: 1, 0.58728122689787443: 1, 0.58722580033443672: 1, 0.58707943700292264: 1, 0.58672623300958315: 1, 0.58655279204203725: 1, 0.58634086976734878: 1, 0.58628863792660879: 1, 0.58628169662485519: 1, 0.58615834044604531: 1, 0.58614282151774955: 1, 0.5861385525744397: 1, 0.58555614318525595: 1, 0.58541790178706665: 1, 0.58530856165403933: 1, 0.58526468323738812: 1, 0.58524198498995361: 1, 0.58506903273541544: 1, 0.58501311878136664: 1, 0.5849291374935528: 1, 0.58488407538077747: 1, 0.5847920549145984: 1, 0.58473383759496167: 1, 0.58469862892552182: 1, 0.58451996780982129: 1, 0.58451150068798086: 1, 0.58442587665897783: 1, 0.58423777950933731: 1, 0.58417151962879521: 1, 0.58416998736781356: 1, 0.58415666488182072: 1, 0.58408525467418404: 1, 0.5839068035849897: 1, 0.58370949873149736: 1, 0.58366817201164878: 1, 0.58364612911836444: 1, 0.58358106367968798: 1, 0.58341100811692714: 1, 0.58317829837295276: 1, 0.58292612505438379: 1, 0.58277777986324986: 1, 0.58250283266514802: 1, 0.58248078979810292: 1, 0.58204969172160825: 1, 0.58201755883561335: 1, 0.58178661045665259: 1, 0.58168890967085174: 1, 0.58156391992730005: 1, 0.58149950479160717: 1, 0.58143778069787289: 1, 0.58123480019130214: 1, 0.5812222518562804: 1, 0.58117272023224498: 1, 0.58114196206353452: 1, 0.58101992007748926: 1, 0.58097823067377186: 1, 0.58091663663460957: 1, 0.58083685191391798: 1, 0.58081360234868418: 1, 0.58077354836406869: 1, 0.58057552030814252: 1, 0.58042969118971632: 1, 0.58034871838792279: 1, 0.58031462335840511: 1, 0.58017381696743753: 1, 0.57991850248029841: 1, 0.57985761739578701: 1, 0.579700916164681: 1, 0.57969647829481963: 1, 0.57948816053143404: 1, 0.57947065567392864: 1, 0.57934208336351656: 1, 0.57930672266297822: 1, 0.57927014884379879: 1, 0.57884687268861357: 1, 0.57880710184487227: 1, 0.5787951935410387: 1, 0.57874433621886601: 1, 0.57864775073846053: 1, 0.57851777783398561: 1, 0.57814171373859846: 1, 0.57804682646104522: 1, 0.57798806353219478: 1, 0.57789124540762027: 1, 0.57788402015197438: 1, 0.57781310194646196: 1, 0.57777541601297844: 1, 0.57750089913527458: 1, 0.5773205999169293: 1, 0.57726843713122122: 1, 0.57698361073943516: 1, 0.57695575480172634: 1, 0.57690734066688465: 1, 0.57665404391196484: 1, 0.57661291669339798: 1, 0.57641688184461781: 1, 0.5763511494298813: 1, 0.57633710219495871: 1, 0.57632314160500753: 1, 0.57620175706918231: 1, 0.57613409977477004: 1, 0.57586634048050966: 1, 0.57585748766912004: 1, 0.57584537234710953: 1, 0.57584193350911161: 1, 0.57576574307495165: 1, 0.57574894692136314: 1, 0.5757384702949625: 1, 0.57565380938764732: 1, 0.57564178266462129: 1, 0.57553743968770232: 1, 0.57553512649184513: 1, 0.5754381259502227: 1, 0.57542926261904759: 1, 0.57539287347690238: 1, 0.5752463160059843: 1, 0.57521378038193649: 1, 0.57514475271469923: 1, 0.57514235734593766: 1, 0.57509766614068014: 1, 0.57508222672489995: 1, 0.57487676550764499: 1, 0.57475144615820373: 1, 0.57474366805219523: 1, 0.5744567979801507: 1, 0.5743210213018991: 1, 0.57428373648693309: 1, 0.57419636699315579: 1, 0.57410342095463163: 1, 0.57406429340665088: 1, 0.57403733156600145: 1, 0.5740026954068117: 1, 0.57389128759355934: 1, 0.57387463867299549: 1, 0.57382931332413034: 1, 0.5737365660294288: 1, 0.57356744004035243: 1, 0.57354053345508338: 1, 0.57353187523817595: 1, 0.57333929110859894: 1, 0.57324306417748627: 1, 0.57323264636667459: 1, 0.57320771011401439: 1, 0.57320344422568126: 1, 0.57312026940983019: 1, 0.5729686219191551: 1, 0.57276432387647724: 1, 0.57235609724051906: 1, 0.57229621908539519: 1, 0.57222779204439078: 1, 0.57214185199396539: 1, 0.57202268656168598: 1, 0.57182509633653067: 1, 0.57176573106022577: 1, 0.57174102586246434: 1, 0.57167829227987743: 1, 0.57151153360926366: 1, 0.57133609872770497: 1, 0.57099453378911169: 1, 0.57091243612541753: 1, 0.57078254264806338: 1, 0.57070432995432763: 1, 0.57060636208761506: 1, 0.57059867772229655: 1, 0.5704737813132208: 1, 0.57040731672762146: 1, 0.57022985969235385: 1, 0.57019163775986659: 1, 0.57004905719309973: 1, 0.56981372735190394: 1, 0.56980601401026976: 1, 0.56975048102848092: 1, 0.56970074675288018: 1, 0.5696850243308077: 1, 0.56966443646438636: 1, 0.56954796160374266: 1, 0.56927683105491911: 1, 0.56903116166007583: 1, 0.56897257574508719: 1, 0.56896253495942695: 1, 0.56892926589168324: 1, 0.56877965310698286: 1, 0.56877861199352631: 1, 0.56874296647518174: 1, 0.56872723128049263: 1, 0.56863975718376636: 1, 0.56860950472210225: 1, 0.56859505962639989: 1, 0.56852062056162067: 1, 0.56840181976248561: 1, 0.56838661609598229: 1, 0.5681478628315354: 1, 0.56809349020206146: 1, 0.5680821256391837: 1, 0.56788002189551345: 1, 0.56770727491410256: 1, 0.56755002671654831: 1, 0.56745541854851123: 1, 0.5673951772279473: 1, 0.56711004304558887: 1, 0.56699288618868293: 1, 0.56690368577074146: 1, 0.56678152378476088: 1, 0.56668427654906939: 1, 0.56667708986923759: 1, 0.56658989558134554: 1, 0.56655696805833999: 1, 0.56639045447760294: 1, 0.56635278617015616: 1, 0.56613469319754317: 1, 0.56611531561453532: 1, 0.56605964495769334: 1, 0.56603119622473996: 1, 0.56591730420565245: 1, 0.56585404394151284: 1, 0.56568832726182339: 1, 0.56554230012978224: 1, 0.56525417867049788: 1, 0.56515880616422176: 1, 0.56496884059087149: 1, 0.56491732042079068: 1, 0.56482197243109478: 1, 0.56470476575961925: 1, 0.5644302482582968: 1, 0.56428277522278025: 1, 0.56426212121517472: 1, 0.56387737367257507: 1, 0.56384490514090091: 1, 0.56382111896377718: 1, 0.56362879379443387: 1, 0.56360761664850401: 1, 0.56337917660736814: 1, 0.56336937322440805: 1, 0.56335245992374516: 1, 0.56321793326820024: 1, 0.5631946199913922: 1, 0.56317627786257596: 1, 0.56303158397887709: 1, 0.56269368570668865: 1, 0.562376140997215: 1, 0.56237581567818884: 1, 0.5623008992049644: 1, 0.5621962153885609: 1, 0.56187965952409102: 1, 0.56187806054007383: 1, 0.56169805090818647: 1, 0.56167880143567361: 1, 0.56153979557209821: 1, 0.5613260116501182: 1, 0.56129546803056607: 1, 0.56107856284625834: 1, 0.56104304120223336: 1, 0.56087285130929843: 1, 0.56070839036837394: 1, 0.56066404207258724: 1, 0.56061886288170837: 1, 0.56049958235002861: 1, 0.56043213854657248: 1, 0.5603551010917216: 1, 0.56022522480367032: 1, 0.56017663606315737: 1, 0.56012653046842487: 1, 0.56004305424208656: 1, 0.56001515999525664: 1, 0.55954519382457468: 1, 0.55933691141483277: 1, 0.55896856480637902: 1, 0.55880665485324221: 1, 0.55849090901397425: 1, 0.55837359582659296: 1, 0.55823697940190553: 1, 0.55820613756943882: 1, 0.55808999478450227: 1, 0.55797467668407941: 1, 0.55773290247305241: 1, 0.5576876574869396: 1, 0.55767421672830042: 1, 0.55766825544410692: 1, 0.55757223934539102: 1, 0.55749833779585278: 1, 0.55734452040099502: 1, 0.55734349374662062: 1, 0.55733841428571651: 1, 0.55730704472513648: 1, 0.55718522497584044: 1, 0.55703982662784113: 1, 0.55700944806928365: 1, 0.55695790024556624: 1, 0.55690544782364571: 1, 0.55679485513845184: 1, 0.55671829359538694: 1, 0.55669995361102875: 1, 0.55652019193723068: 1, 0.55649901976299865: 1, 0.55620107662975993: 1, 0.55616161958074883: 1, 0.55616101425568987: 1, 0.55615649478322748: 1, 0.55615202276596154: 1, 0.55613975411469163: 1, 0.5560321328894825: 1, 0.55568472793759716: 1, 0.55565798180936676: 1, 0.55565494902941936: 1, 0.55562305816286506: 1, 0.55558073362546956: 1, 0.55555610058873761: 1, 0.5555527652312271: 1, 0.55545176196056167: 1, 0.55534686615525575: 1, 0.5550458919436122: 1, 0.55501822857069516: 1, 0.5548801784626447: 1, 0.55463182230053976: 1, 0.55462933561932348: 1, 0.55451392659753496: 1, 0.55436882449039238: 1, 0.55434023400396459: 1, 0.55431625076154523: 1, 0.55430085309465738: 1, 0.55429278027484752: 1, 0.55423178501254466: 1, 0.55421099986099243: 1, 0.55391664269046959: 1, 0.55385642907227761: 1, 0.55379949066115242: 1, 0.55350353402260688: 1, 0.55345013280579136: 1, 0.55341565314043029: 1, 0.55318086753070794: 1, 0.55304043879646114: 1, 0.55293736484020206: 1, 0.55260308963406735: 1, 0.55253098252817401: 1, 0.55250667691216471: 1, 0.55248458742945838: 1, 0.55237514418772271: 1, 0.55223664356142621: 1, 0.55204296366379368: 1, 0.5519777440126884: 1, 0.55197323680148958: 1, 0.55191931889479717: 1, 0.55187656161358212: 1, 0.55183580460828763: 1, 0.55170075411511088: 1, 0.5512588206799377: 1, 0.55118958175772248: 1, 0.55103059445298985: 1, 0.55097176709257711: 1, 0.55087048034329478: 1, 0.55084971442617292: 1, 0.55082366791021886: 1, 0.55062152745298598: 1, 0.55059944405468053: 1, 0.550301813247006: 1, 0.55028782524477338: 1, 0.5501224660030567: 1, 0.55009424869085854: 1, 0.54993136943693677: 1, 0.54992686025321591: 1, 0.54991310928557535: 1, 0.54989684753472201: 1, 0.54974105678198804: 1, 0.54923143753864589: 1, 0.54921558795434067: 1, 0.54921497019080712: 1, 0.54920790283606091: 1, 0.54902214959495432: 1, 0.54894127098603984: 1, 0.54874097673194411: 1, 0.54864768213240744: 1, 0.54853230639005979: 1, 0.54840461449758449: 1, 0.54836653074135122: 1, 0.5482839938903834: 1, 0.54825753158465573: 1, 0.54817495099932168: 1, 0.54815985168305015: 1, 0.54798714615560074: 1, 0.54790448823589377: 1, 0.54778013436359718: 1, 0.54762669229209116: 1, 0.54753061601936459: 1, 0.54750343462718365: 1, 0.5474324134022559: 1, 0.54733945955461982: 1, 0.54724920989731562: 1, 0.54709805877910123: 1, 0.54707996437117568: 1, 0.54702968402622421: 1, 0.54689673535195327: 1, 0.5467833167598567: 1, 0.54677474921031255: 1, 0.54672946970573066: 1, 0.54668249468714769: 1, 0.54651485027108149: 1, 0.54649342218244146: 1, 0.5462707811287657: 1, 0.54614156406927494: 1, 0.54598685244264367: 1, 0.54570239790546193: 1, 0.54540677360194889: 1, 0.54521638868516753: 1, 0.54511187775488512: 1, 0.54506352726536178: 1, 0.54503591682499253: 1, 0.54479660245352035: 1, 0.54454030183736868: 1, 0.54448633315669559: 1, 0.54439429082481605: 1, 0.54435128127696775: 1, 0.54420704426806321: 1, 0.54393964453901988: 1, 0.54393134868231585: 1, 0.54378422786759562: 1, 0.5437322866275951: 1, 0.54370118317782457: 1, 0.54360585699366282: 1, 0.54359007437854689: 1, 0.54343263781331808: 1, 0.54336649128359471: 1, 0.54316882654183529: 1, 0.54308414531085891: 1, 0.54294980743366883: 1, 0.54287278056309829: 1, 0.54286418241710777: 1, 0.54274947988341271: 1, 0.5426627402285511: 1, 0.54259489795294469: 1, 0.54249365489677093: 1, 0.54249246326105216: 1, 0.54237922023167429: 1, 0.54231725031596434: 1, 0.54223218110707272: 1, 0.54222895089093404: 1, 0.54216166407600974: 1, 0.54211234715732626: 1, 0.54188404221496977: 1, 0.54160646327547157: 1, 0.54152631304472365: 1, 0.54150586194155292: 1, 0.54128951688628668: 1, 0.54123531647222112: 1, 0.5412312200858812: 1, 0.54121798164939516: 1, 0.54112629066590057: 1, 0.54098631206027437: 1, 0.54088448037631975: 1, 0.54078472715978609: 1, 0.54074678043416813: 1, 0.54071247736075656: 1, 0.54069323864150398: 1, 0.54040824294124479: 1, 0.54038587900511514: 1, 0.54025095973932025: 1, 0.5401364877205832: 1, 0.54006280412479324: 1, 0.54001150970137224: 1, 0.54001010336387756: 1, 0.53992273964064885: 1, 0.53990787120466699: 1, 0.53975407055874691: 1, 0.5396747065771641: 1, 0.53962963703706024: 1, 0.53943531809936895: 1, 0.53927286113063788: 1, 0.53916855530987828: 1, 0.53912948324892407: 1, 0.53897195615393878: 1, 0.53886415131926801: 1, 0.53885720904050005: 1, 0.53877592303158728: 1, 0.53876686553324038: 1, 0.53869597364252875: 1, 0.53857551050149011: 1, 0.53844953499356785: 1, 0.53844112031197933: 1, 0.53831285471066015: 1, 0.53815208139255144: 1, 0.53803845252347449: 1, 0.53794983988896172: 1, 0.53789697446633644: 1, 0.53784851803534728: 1, 0.53781291811406717: 1, 0.53776562134828032: 1, 0.53768850153293324: 1, 0.53765494549294723: 1, 0.53750635591127494: 1, 0.53742231162793264: 1, 0.53741373153122729: 1, 0.53726621220355653: 1, 0.53718198166726394: 1, 0.53706731177777778: 1, 0.53705358311157136: 1, 0.53701247897275939: 1, 0.53689301877436768: 1, 0.53688739125227658: 1, 0.53678844438540685: 1, 0.53676370348073876: 1, 0.53660000753584003: 1, 0.53644096425285426: 1, 0.53633208227668849: 1, 0.53632517563581339: 1, 0.53631691598734954: 1, 0.53619373279124483: 1, 0.53615282860683888: 1, 0.53604417884617706: 1, 0.53602955942630404: 1, 0.53571604736760847: 1, 0.53562955974210014: 1, 0.53557062512869036: 1, 0.53549185102238106: 1, 0.53547873001147939: 1, 0.53531870006363402: 1, 0.53520165079553261: 1, 0.53508525097024373: 1, 0.53499802936762131: 1, 0.53495035226551013: 1, 0.53492491800815867: 1, 0.53478091134406969: 1, 0.53468051013475693: 1, 0.53462907601404619: 1, 0.53447578071472235: 1, 0.53442374442300611: 1, 0.53426929184269012: 1, 0.53423476389772095: 1, 0.53415484989939144: 1, 0.53391551035988116: 1, 0.53389186582521819: 1, 0.53387273789772116: 1, 0.53386709475791005: 1, 0.53380941609042043: 1, 0.53379677610935483: 1, 0.53375751395859694: 1, 0.53372304043189545: 1, 0.53365436195598126: 1, 0.53354793487815177: 1, 0.53332636227413388: 1, 0.53330857324344905: 1, 0.53326237035730017: 1, 0.53323693493464297: 1, 0.53323530086347171: 1, 0.53317434809359265: 1, 0.53310653177159428: 1, 0.53310152729326399: 1, 0.53296025817628545: 1, 0.5329543892124109: 1, 0.53267863127789583: 1, 0.53255882894289208: 1, 0.53240760772566575: 1, 0.53232702002040344: 1, 0.53227158772882632: 1, 0.53218310588121343: 1, 0.53207342742060537: 1, 0.53197696086667745: 1, 0.53191648407758063: 1, 0.53187090750962263: 1, 0.53181404657987419: 1, 0.53147314488596509: 1, 0.5313062442552936: 1, 0.53125436512611357: 1, 0.53125348461310107: 1, 0.53124988807644236: 1, 0.53115888301661074: 1, 0.53114532682644555: 1, 0.5309759654314119: 1, 0.53091530653758101: 1, 0.53058006042108175: 1, 0.53054518949961749: 1, 0.53050094365435407: 1, 0.53039282481286343: 1, 0.53021235354724705: 1, 0.53019068601217267: 1, 0.53013465452449438: 1, 0.53004893664209685: 1, 0.5300328364326552: 1, 0.53001213015736726: 1, 0.529990100909559: 1, 0.52979488142261133: 1, 0.52963876820695599: 1, 0.5296028608092791: 1, 0.52953487976753855: 1, 0.52947538369211455: 1, 0.52937750843412368: 1, 0.52926991464462703: 1, 0.52912408282394141: 1, 0.52894395544599471: 1, 0.52893749139263846: 1, 0.52887202662749344: 1, 0.52886498045929442: 1, 0.52869741301645523: 1, 0.52868932794197832: 1, 0.52868167221806128: 1, 0.52864968085717823: 1, 0.52858627902664812: 1, 0.52843537092941872: 1, 0.5283923748219167: 1, 0.52835835153076693: 1, 0.52833189878081044: 1, 0.52824787729379197: 1, 0.52819634007689376: 1, 0.52813001120340419: 1, 0.52790580263416698: 1, 0.5277271842598682: 1, 0.5274753873150626: 1, 0.52745190478220016: 1, 0.52738630153158828: 1, 0.52727397978554469: 1, 0.52726825493438312: 1, 0.52716361118019317: 1, 0.52696048836424536: 1, 0.52673892949471468: 1, 0.52650968460827552: 1, 0.5263850032889944: 1, 0.52634355967625313: 1, 0.52612716745569388: 1, 0.52612356896054324: 1, 0.52592077486884714: 1, 0.52559962266049765: 1, 0.52544532672184852: 1, 0.52537875368463227: 1, 0.52535233658786207: 1, 0.52533710746644269: 1, 0.52530665449725589: 1, 0.52520440934066004: 1, 0.52519183054759966: 1, 0.52509120001295606: 1, 0.52503171610760446: 1, 0.52501786587820187: 1, 0.52489685249333351: 1, 0.52487632185088084: 1, 0.52479347144270716: 1, 0.52473911203166645: 1, 0.52457244418105464: 1, 0.52452187814167062: 1, 0.52432804319074422: 1, 0.52419445826094624: 1, 0.52404370823831414: 1, 0.52391391229381801: 1, 0.52386536939183714: 1, 0.52381073220785435: 1, 0.52360910634292335: 1, 0.52355052480249065: 1, 0.52347602791679804: 1, 0.52345534595822296: 1, 0.52344316034087579: 1, 0.52324808688795155: 1, 0.52312765590634669: 1, 0.52307769141517657: 1, 0.52300547016194054: 1, 0.52295893286358108: 1, 0.52293734477159759: 1, 0.52290906559986217: 1, 0.52267798618347594: 1, 0.52266231614077419: 1, 0.52253950295060803: 1, 0.52247537610196448: 1, 0.52230730044705809: 1, 0.52227213627629632: 1, 0.52224099225971488: 1, 0.52220511059706165: 1, 0.52214764670296476: 1, 0.52213416237140453: 1, 0.52208646925597213: 1, 0.5220820774227084: 1, 0.52206005014271206: 1, 0.52204279376817342: 1, 0.52194866958825559: 1, 0.52187700544103077: 1, 0.52172615503624242: 1, 0.52170062966083064: 1, 0.52162579667502473: 1, 0.52161122448632347: 1, 0.52157357493500711: 1, 0.52154673076260627: 1, 0.52154250480518094: 1, 0.52148831949607322: 1, 0.52142446164109102: 1, 0.52136918956733158: 1, 0.52136154982678584: 1, 0.52127588572717676: 1, 0.52118039175995867: 1, 0.52094683976232559: 1, 0.52091759089697109: 1, 0.52086898791124792: 1, 0.52057430786458792: 1, 0.52050202903124543: 1, 0.52048969827663394: 1, 0.52043165607401576: 1, 0.52003828234463489: 1, 0.51987343226180238: 1, 0.51981942454536878: 1, 0.5198142088570793: 1, 0.51979725956368517: 1, 0.51972902567514534: 1, 0.51953868853804352: 1, 0.51950733643860836: 1, 0.51936710951209653: 1, 0.51936708069491466: 1, 0.51925219027885727: 1, 0.51917494254527319: 1, 0.51907185736134598: 1, 0.5190265910664702: 1, 0.51883440715176787: 1, 0.51879140128072043: 1, 0.51868935954230666: 1, 0.51864438937884028: 1, 0.51857007097804353: 1, 0.51856812516811246: 1, 0.51842419487478586: 1, 0.51836227753872155: 1, 0.51819430144660816: 1, 0.51811899512801429: 1, 0.51811032810263791: 1, 0.51809768866470396: 1, 0.51804788427884518: 1, 0.5179506352171126: 1, 0.51789400794492857: 1, 0.51789035887863488: 1, 0.51763626719897671: 1, 0.51748395128929658: 1, 0.51744051284396442: 1, 0.51741705653027126: 1, 0.51740997483601237: 1, 0.51738467129077315: 1, 0.51737083123158401: 1, 0.51726583461613518: 1, 0.51723669251522775: 1, 0.51720227331024071: 1, 0.51718988141580835: 1, 0.51708723748870122: 1, 0.51706975332369687: 1, 0.5170402908837809: 1, 0.51696226452049343: 1, 0.51693901445479051: 1, 0.51675413172138196: 1, 0.51674787028618507: 1, 0.51673051470417164: 1, 0.51668343991487697: 1, 0.51661468198602956: 1, 0.51652778904257146: 1, 0.51651353687489943: 1, 0.51648507236544783: 1, 0.51647326949308936: 1, 0.51639667072941242: 1, 0.51636113172806153: 1, 0.51625730197930675: 1, 0.51624305267593473: 1, 0.51622882233150458: 1, 0.51619932584788808: 1, 0.51614302021813874: 1, 0.51610403673699023: 1, 0.51592190066487531: 1, 0.51590983181361361: 1, 0.51546836390216855: 1, 0.51542320966719191: 1, 0.5154193011107544: 1, 0.51536490910942134: 1, 0.51522803230454772: 1, 0.51503877413720367: 1, 0.51488700475621951: 1, 0.51484443241814015: 1, 0.51470618539886548: 1, 0.51469580441234353: 1, 0.51465048004448644: 1, 0.51463152326778716: 1, 0.51438574805913828: 1, 0.51436953837744159: 1, 0.51433268176046354: 1, 0.51432833600274763: 1, 0.51428535131342235: 1, 0.51415033152032663: 1, 0.5141259486132459: 1, 0.51409603726878961: 1, 0.51407169586081713: 1, 0.51397795085819487: 1, 0.5139769607210718: 1, 0.51396429319768377: 1, 0.51382797194383778: 1, 0.51368571459877088: 1, 0.51363866985828976: 1, 0.51353686603997606: 1, 0.51351642825810218: 1, 0.51351363483119339: 1, 0.51343277886983796: 1, 0.51340092690090833: 1, 0.513365136530893: 1, 0.51322760238612219: 1, 0.51319602100465023: 1, 0.51312352635416913: 1, 0.51301833609401282: 1, 0.51297910796226864: 1, 0.51257356188107062: 1, 0.51255731033207208: 1, 0.512380512282964: 1, 0.51224314417201644: 1, 0.51221707454501308: 1, 0.51209418106990978: 1, 0.51203644970042406: 1, 0.51198099675254516: 1, 0.51193319745318333: 1, 0.51182390765502972: 1, 0.51178020939712199: 1, 0.5117263010750861: 1, 0.51168050503861529: 1, 0.51167642056886498: 1, 0.51157234814533792: 1, 0.51155167680701874: 1, 0.51145289781869419: 1, 0.51142938408238781: 1, 0.51139672358348243: 1, 0.51134211968265086: 1, 0.51133428840778017: 1, 0.51130480290693914: 1, 0.51112671034503632: 1, 0.51106610233795535: 1, 0.51099697670536315: 1, 0.51096255333083129: 1, 0.51080992201337028: 1, 0.51076788984757926: 1, 0.51065709643674206: 1, 0.51055154526382918: 1, 0.5104942734813831: 1, 0.51042204574048877: 1, 0.51039478794192938: 1, 0.51036444128260872: 1, 0.51035230894218642: 1, 0.51028765749718041: 1, 0.51022417621654426: 1, 0.51015041771312697: 1, 0.51003026869351487: 1, 0.50999533708831413: 1, 0.50994239223101456: 1, 0.50983675774492421: 1, 0.5097182859757069: 1, 0.50970618092446462: 1, 0.50952111253354904: 1, 0.50950499884163136: 1, 0.50931950131506853: 1, 0.50896919419966891: 1, 0.50885165187194725: 1, 0.50883798746250997: 1, 0.50879020515594098: 1, 0.50840764492385437: 1, 0.50838378846133825: 1, 0.50835343421563939: 1, 0.5082703968991058: 1, 0.50794756369841865: 1, 0.50787154313858252: 1, 0.50786660013000728: 1, 0.50777958647486265: 1, 0.50776014038806583: 1, 0.50766620029124954: 1, 0.50755200791583666: 1, 0.50749436959286653: 1, 0.50747440603943439: 1, 0.5074086099609475: 1, 0.50727883638321769: 1, 0.50725265912628592: 1, 0.50724947241032503: 1, 0.50718739078475228: 1, 0.50707739708445398: 1, 0.50683005835605233: 1, 0.5068043145929616: 1, 0.5067263060679521: 1, 0.50670949964720358: 1, 0.50657658605937805: 1, 0.50653681595585331: 1, 0.50638032350710616: 1, 0.50636015479981333: 1, 0.50633210336158463: 1, 0.50627700290332323: 1, 0.50623542745818306: 1, 0.5062278058166092: 1, 0.50620051094076668: 1, 0.50608843275838611: 1, 0.506085942452981: 1, 0.50607991651669026: 1, 0.50591685519303797: 1, 0.50588038952607672: 1, 0.50560124867945067: 1, 0.50560022579667896: 1, 0.50552123978265917: 1, 0.50545289458880871: 1, 0.50532761735637088: 1, 0.50527340260726894: 1, 0.50515598345164492: 1, 0.50512804825939372: 1, 0.5048200268277564: 1, 0.50478584022994022: 1, 0.50470019947122902: 1, 0.50466465870004773: 1, 0.50444312357338306: 1, 0.50437647557908372: 1, 0.50428595257150577: 1, 0.50394719519166098: 1, 0.50391251721509012: 1, 0.50370586534241257: 1, 0.50363116017187892: 1, 0.50358274970732475: 1, 0.50344728750333212: 1, 0.50339416399731807: 1, 0.50338222007168287: 1, 0.50333271210734276: 1, 0.50332504887562102: 1, 0.50327938259439042: 1, 0.50327808749399783: 1, 0.50321144299079723: 1, 0.50315409030163438: 1, 0.50311242247483212: 1, 0.50299155057193512: 1, 0.50298835035018263: 1, 0.50291116122196611: 1, 0.50277476646561359: 1, 0.50277154900664289: 1, 0.50268506838268867: 1, 0.50259684857100562: 1, 0.50255504520817629: 1, 0.50253159987151008: 1, 0.50244892192460344: 1, 0.50239137417637147: 1, 0.50200296594632821: 1, 0.50190274876979057: 1, 0.50188201867536741: 1, 0.50184574721338715: 1, 0.50175576354570217: 1, 0.50173666178070475: 1, 0.50146350614902235: 1, 0.50142954985903554: 1, 0.50129365152967487: 1, 0.50122064888716933: 1, 0.50116720251689151: 1, 0.50093086068838311: 1, 0.50078436266898818: 1, 0.50064950133290476: 1, 0.50032904412065216: 1, 0.50028571470413796: 1, 0.50011572863631382: 1, 0.4999047577292362: 1, 0.49984602140589734: 1, 0.49973174496451206: 1, 0.49951606443963897: 1, 0.49951353226042233: 1, 0.49920256426048476: 1, 0.49914737267432641: 1, 0.49910562284966087: 1, 0.49909149843599221: 1, 0.49900540704930957: 1, 0.49897832999472369: 1, 0.49889363576830686: 1, 0.49883572482540911: 1, 0.49883512649814532: 1, 0.4987053609365078: 1, 0.49869637345341183: 1, 0.49833887258299681: 1, 0.49829122409623805: 1, 0.49826793888370424: 1, 0.49826137747414856: 1, 0.49817047490730343: 1, 0.498056558726239: 1, 0.49765101226004049: 1, 0.49762636509329311: 1, 0.49747453805398018: 1, 0.49739036567237205: 1, 0.49708232481864961: 1, 0.49707907951899893: 1, 0.49697028056941478: 1, 0.49696571907709047: 1, 0.49696201416795854: 1, 0.4968544830524696: 1, 0.49685421541313957: 1, 0.49684013138101202: 1, 0.49677263909035319: 1, 0.49642855178488354: 1, 0.49635317724257999: 1, 0.49625343029474256: 1, 0.4961614056275962: 1, 0.49609444152238957: 1, 0.49606588174505656: 1, 0.49603901160814112: 1, 0.49598013408203007: 1, 0.49591985598418842: 1, 0.49581249925586146: 1, 0.49579148244293098: 1, 0.49577780349702671: 1, 0.49576239267542044: 1, 0.49575603789314793: 1, 0.49572653490776419: 1, 0.49562870584009427: 1, 0.49562772559361357: 1, 0.49555795821217913: 1, 0.49534679832552914: 1, 0.49514391763647264: 1, 0.49499527985301511: 1, 0.49496074405018686: 1, 0.4948884190491174: 1, 0.49457276829056662: 1, 0.49453144247670111: 1, 0.4944100046789186: 1, 0.49431226655553534: 1, 0.49426965990614713: 1, 0.49410220576023334: 1, 0.49402354890458583: 1, 0.4939294891893295: 1, 0.49385353573793572: 1, 0.49383894386032623: 1, 0.49382681182364135: 1, 0.49346696472971141: 1, 0.49344679310265255: 1, 0.49341825931383415: 1, 0.4933001533224734: 1, 0.49318847161342788: 1, 0.4930923299502426: 1, 0.49256641791741251: 1, 0.49241298319888427: 1, 0.49233016762479775: 1, 0.4922587152689788: 1, 0.49220484126375613: 1, 0.49217988768381254: 1, 0.49217105269559097: 1, 0.49213629364271977: 1, 0.49210492960271324: 1, 0.4920280795977518: 1, 0.49199949304975898: 1, 0.49198476142211445: 1, 0.4918540714194895: 1, 0.49180599806624653: 1, 0.49180134940682185: 1, 0.49167593314917002: 1, 0.49165545622060491: 1, 0.49159421412642385: 1, 0.49152167744878322: 1, 0.49131073485077786: 1, 0.49128355415836594: 1, 0.49115788183854053: 1, 0.49110858253846357: 1, 0.49107276774077319: 1, 0.49091134680157922: 1, 0.4908295060908654: 1, 0.49080323085335414: 1, 0.49049877419679544: 1, 0.49045845567428548: 1, 0.49036393007495277: 1, 0.49023283282262281: 1, 0.49015070727036403: 1, 0.4900488906046464: 1, 0.49000109050663421: 1, 0.48991197302664835: 1, 0.48981092542260429: 1, 0.48978910773298512: 1, 0.48977441133552718: 1, 0.4897607445155886: 1, 0.48964688289027603: 1, 0.48955244515800239: 1, 0.48896990478255253: 1, 0.48896832941979307: 1, 0.4888531905061963: 1, 0.48878359730379428: 1, 0.48866172310999384: 1, 0.48853554874438077: 1, 0.48838295384089819: 1, 0.48827060427063051: 1, 0.4881751675755151: 1, 0.48814351884084384: 1, 0.48801984894937855: 1, 0.48801642707384957: 1, 0.48799216285180447: 1, 0.48796691523422836: 1, 0.48794803065562148: 1, 0.48782199846086399: 1, 0.48779498565653179: 1, 0.48775771300011611: 1, 0.48769596376729285: 1, 0.48769121825830863: 1, 0.48763365896374405: 1, 0.48762641520735217: 1, 0.48748790098803618: 1, 0.48747660955603578: 1, 0.48726067021059027: 1, 0.48719790989811984: 1, 0.48716464894050976: 1, 0.48712961642552871: 1, 0.48699544820258256: 1, 0.48693727731605285: 1, 0.48684244843742025: 1, 0.48671704664944043: 1, 0.48670626114154331: 1, 0.48662367000942569: 1, 0.48661148486098815: 1, 0.4865300350536938: 1, 0.4864683597063002: 1, 0.48644960711922602: 1, 0.48639666756244238: 1, 0.48636942556590984: 1, 0.48635843850255944: 1, 0.48615225601687728: 1, 0.48609998656533937: 1, 0.48602581980329457: 1, 0.48599390244744239: 1, 0.4859180439894179: 1, 0.48587525632583523: 1, 0.48582607607239631: 1, 0.48580025411091959: 1, 0.48579502108248779: 1, 0.48569797301729956: 1, 0.4852542406215119: 1, 0.48521759703834505: 1, 0.48519827961307538: 1, 0.48518112951248304: 1, 0.48514155587310059: 1, 0.48509470067275307: 1, 0.48500590921192954: 1, 0.485001963481138: 1, 0.48466458136050083: 1, 0.48457483002555918: 1, 0.48448444801031854: 1, 0.48440816792409885: 1, 0.4843512612203375: 1, 0.48426394416432134: 1, 0.48422533224362396: 1, 0.48406116786788139: 1, 0.48405217338673862: 1, 0.48391495656656042: 1, 0.48380762206083733: 1, 0.48379015448494128: 1, 0.48376010015340737: 1, 0.48365089892980651: 1, 0.48341677627087171: 1, 0.48336623783259464: 1, 0.48325700041894087: 1, 0.48325339949907808: 1, 0.48316431229205414: 1, 0.48307976102935773: 1, 0.48302049014644755: 1, 0.48289653759408241: 1, 0.48276087300025705: 1, 0.48271371893328235: 1, 0.48256119595262748: 1, 0.48248377217172661: 1, 0.48241298780256953: 1, 0.48234397790641409: 1, 0.48225570553803154: 1, 0.48219163734070802: 1, 0.48196648184057655: 1, 0.4817745135478454: 1, 0.48171394060055694: 1, 0.48167523621685843: 1, 0.48156043287669736: 1, 0.48155182644529027: 1, 0.48153585802364213: 1, 0.48152874543806601: 1, 0.48149357254445696: 1, 0.4813285859151985: 1, 0.48116993063607827: 1, 0.48111236156863169: 1, 0.48104637530657707: 1, 0.48102776699359462: 1, 0.48088409709432772: 1, 0.4808081779465414: 1, 0.48076796818662382: 1, 0.48074915183578032: 1, 0.48073039455720173: 1, 0.48069117162887287: 1, 0.48061982130712633: 1, 0.48040619499448572: 1, 0.4804014520746489: 1, 0.48038142396861749: 1, 0.48035174738504111: 1, 0.48034703240549476: 1, 0.4803163285216468: 1, 0.48028460025607028: 1, 0.48020292942434556: 1, 0.48014426819331946: 1, 0.48009767223430949: 1, 0.47990434948257499: 1, 0.47983984773021582: 1, 0.47979399006043116: 1, 0.47962676829854028: 1, 0.47962302871559082: 1, 0.47961468323429096: 1, 0.47950265847244133: 1, 0.47911534290896718: 1, 0.47887541098087616: 1, 0.47886675626294767: 1, 0.47873833209939792: 1, 0.47872768715598962: 1, 0.47872465945599979: 1, 0.47869022694348756: 1, 0.47850323106873094: 1, 0.47846047649517803: 1, 0.47840815317592378: 1, 0.47831230363445071: 1, 0.47826551118857269: 1, 0.47826242681113346: 1, 0.47813916608463836: 1, 0.47805009269426268: 1, 0.47801180244694069: 1, 0.47799897711707018: 1, 0.47791600666983552: 1, 0.47790871262892415: 1, 0.47784959573279445: 1, 0.47778862543415934: 1, 0.47777050112921832: 1, 0.47759410078340947: 1, 0.47752518105417208: 1, 0.47751451949808638: 1, 0.47730392812841221: 1, 0.47721937550680538: 1, 0.47720814310999088: 1, 0.47698115859479512: 1, 0.4768166689714608: 1, 0.47669970672706474: 1, 0.47661833901655726: 1, 0.47657010031165503: 1, 0.47650604233276062: 1, 0.47650216037656917: 1, 0.4764213042363577: 1, 0.4763608084021983: 1, 0.47631183517935849: 1, 0.47626745670072357: 1, 0.47607795591767488: 1, 0.47603846855749576: 1, 0.47592032366756953: 1, 0.47584684812951356: 1, 0.47580440473388108: 1, 0.47579108502102913: 1, 0.4757400142231889: 1, 0.47572380522858043: 1, 0.47571466933998618: 1, 0.47570920367158914: 1, 0.47565908484960018: 1, 0.47560989679047216: 1, 0.47556354511096771: 1, 0.47545750893023769: 1, 0.47536006284303878: 1, 0.47530658500595468: 1, 0.47527317263641755: 1, 0.47520306129191803: 1, 0.47499596825858947: 1, 0.4746946954616722: 1, 0.47447404955643768: 1, 0.47444359592794166: 1, 0.47443838493703333: 1, 0.47436182039923708: 1, 0.47433701842536174: 1, 0.47432842479611476: 1, 0.47430404799486348: 1, 0.47427415412243612: 1, 0.47426769009396785: 1, 0.47423197229902547: 1, 0.47420904769971967: 1, 0.47420556332576785: 1, 0.47403125175356514: 1, 0.47398797903682399: 1, 0.473937478334166: 1, 0.47380453415769941: 1, 0.47378042075849136: 1, 0.47375845193299071: 1, 0.47366661342628336: 1, 0.47366532762861707: 1, 0.47362214906217825: 1, 0.47336373648780034: 1, 0.47322235795800438: 1, 0.47293669419781581: 1, 0.47292663543781488: 1, 0.47291533338232516: 1, 0.47274308454135117: 1, 0.4727314152255227: 1, 0.47264343102882134: 1, 0.47263987827352077: 1, 0.4723325898715458: 1, 0.4720855090949625: 1, 0.47189264873347797: 1, 0.47186973371646412: 1, 0.47185667605019721: 1, 0.47171236779596981: 1, 0.47163219689597796: 1, 0.47157788278420626: 1, 0.47155231729263702: 1, 0.47152221106076359: 1, 0.47133994059000855: 1, 0.47126300932463994: 1, 0.47110995363106639: 1, 0.47104165107701529: 1, 0.47078559894091848: 1, 0.47077522185275189: 1, 0.47072143079408163: 1, 0.47066559662384211: 1, 0.4706544166313385: 1, 0.47051663256588988: 1, 0.47050090247437448: 1, 0.47041613043662628: 1, 0.47036010444708931: 1, 0.47025477543120991: 1, 0.47015720028001096: 1, 0.46991476764404339: 1, 0.46971380440816835: 1, 0.46968528636308088: 1, 0.46958811012656865: 1, 0.46954781174049531: 1, 0.46947069788347184: 1, 0.46945927928454523: 1, 0.46930208464639162: 1, 0.46921305569888383: 1, 0.46902685421431561: 1, 0.46891855938939631: 1, 0.46889814483341646: 1, 0.46881596521546348: 1, 0.46881184218387012: 1, 0.46877331011632328: 1, 0.46859056656435316: 1, 0.46829969493776918: 1, 0.46825222908891817: 1, 0.468092481790024: 1, 0.4680646070611707: 1, 0.4680046108387908: 1, 0.46790298138996261: 1, 0.46790034961876475: 1, 0.46789189469470549: 1, 0.46783199002992465: 1, 0.46780907051146747: 1, 0.46780128109015445: 1, 0.46775068383418628: 1, 0.46774135713866544: 1, 0.46765770115855548: 1, 0.46764717317082638: 1, 0.46761843920150681: 1, 0.46760932065963584: 1, 0.46757970562726608: 1, 0.46754288678643924: 1, 0.46752555403209295: 1, 0.46752014346980258: 1, 0.46736360860264126: 1, 0.46729843171850449: 1, 0.46717594947817193: 1, 0.46715340696700886: 1, 0.46693452957099196: 1, 0.4667714258663247: 1, 0.46672486322622281: 1, 0.46666488337504658: 1, 0.46664956877777269: 1, 0.46662212830527372: 1, 0.46655575323671422: 1, 0.46652598950344148: 1, 0.46645416506600762: 1, 0.46640667846682143: 1, 0.46638431069651709: 1, 0.46637855750103774: 1, 0.46632051258620255: 1, 0.46624541025296018: 1, 0.46620513037935801: 1, 0.46607611020147705: 1, 0.4659938834475823: 1, 0.46590997750750685: 1, 0.46584653759443367: 1, 0.46574396178178495: 1, 0.46567597573662151: 1, 0.4655024310858652: 1, 0.46544185409029676: 1, 0.46536106220241807: 1, 0.46533802911947131: 1, 0.46528548685576315: 1, 0.46500640529192327: 1, 0.46498081058330221: 1, 0.46479230065917698: 1, 0.4647863841502653: 1, 0.46447256084058136: 1, 0.46445472081084554: 1, 0.46436486600480226: 1, 0.46426959020220548: 1, 0.4642692887412761: 1, 0.46426476360290286: 1, 0.46426266008823519: 1, 0.46416456984023113: 1, 0.46414298174241997: 1, 0.46410540053495963: 1, 0.46399529847269422: 1, 0.46399139058243244: 1, 0.46392524107427358: 1, 0.46373620887933342: 1, 0.46348109344811567: 1, 0.4632495442843258: 1, 0.4631503302028242: 1, 0.46303463411437695: 1, 0.46297011298235563: 1, 0.4629412827234532: 1, 0.4627977936099098: 1, 0.4627311162690782: 1, 0.4626322383928172: 1, 0.46260630102942207: 1, 0.46258871962418951: 1, 0.46242315760268826: 1, 0.4622565951255263: 1, 0.46222580941174984: 1, 0.46215153777378998: 1, 0.46203658404656717: 1, 0.46202804810739323: 1, 0.46199964875015237: 1, 0.46198612360198654: 1, 0.46192704152533204: 1, 0.46182204978974822: 1, 0.46169660230626292: 1, 0.46086906654338805: 1, 0.46069985378904654: 1, 0.46068575536610235: 1, 0.46067904792788078: 1, 0.46052829131223688: 1, 0.46048580656259985: 1, 0.46045367830473494: 1, 0.46041824695563416: 1, 0.46038122312750884: 1, 0.46035615283002396: 1, 0.46018991067122178: 1, 0.46014123138189461: 1, 0.45998973003967358: 1, 0.45990960635456563: 1, 0.45990838093974501: 1, 0.45977120392536958: 1, 0.45976887213885009: 1, 0.4595670474373954: 1, 0.459462804651184: 1, 0.45945091480002098: 1, 0.45942897273786859: 1, 0.45940672251020614: 1, 0.45938631407221064: 1, 0.45932543368237738: 1, 0.45930935893294411: 1, 0.45927421935662333: 1, 0.45925775575540173: 1, 0.45908921194137614: 1, 0.45901617701526781: 1, 0.45901064869314651: 1, 0.45890995298363252: 1, 0.45880525502821823: 1, 0.45873762808278046: 1, 0.45872646414490492: 1, 0.45866971605118284: 1, 0.45857774211561692: 1, 0.45845157174610596: 1, 0.45842614776262147: 1, 0.45799945916968215: 1, 0.45799439115480889: 1, 0.45784437186995519: 1, 0.45772928593861251: 1, 0.45769768201783806: 1, 0.45750679218627022: 1, 0.45742417056156875: 1, 0.45741009752540779: 1, 0.45740635254578726: 1, 0.45732814575502789: 1, 0.45708240277234852: 1, 0.45704321271112491: 1, 0.45698931164953421: 1, 0.45681900572374434: 1, 0.45680342652750433: 1, 0.45673777772341867: 1, 0.45669672166068093: 1, 0.45668550183180795: 1, 0.45661050238866191: 1, 0.45647077309059048: 1, 0.456446988787718: 1, 0.45643359951437179: 1, 0.45636099582294648: 1, 0.45633266150557333: 1, 0.45629860786305732: 1, 0.4562273419008766: 1, 0.45618129551339198: 1, 0.45611014697351943: 1, 0.456015484005312: 1, 0.45589418195843151: 1, 0.45568278460869199: 1, 0.45567269369948427: 1, 0.45560467338420546: 1, 0.45554192393534854: 1, 0.45544974556115336: 1, 0.4554132292204236: 1, 0.45524517605608394: 1, 0.45516530507675723: 1, 0.45502492526572597: 1, 0.45500810418657534: 1, 0.45491922746247998: 1, 0.45484381204675345: 1, 0.4548242477740187: 1, 0.45481345639114884: 1, 0.45476791907854058: 1, 0.45465719741078425: 1, 0.45462356461850612: 1, 0.45441502276204548: 1, 0.45426767417642566: 1, 0.45423338731289092: 1, 0.45401583010553564: 1, 0.45381824720243696: 1, 0.4536626994035805: 1, 0.45365393954356131: 1, 0.45365167827127822: 1, 0.453613146425488: 1, 0.45358156781600795: 1, 0.4535462874472429: 1, 0.45345473666443065: 1, 0.45334498000504825: 1, 0.45332039626632747: 1, 0.45316644140189277: 1, 0.45306238464013771: 1, 0.45301075908182414: 1, 0.45296588470970334: 1, 0.45293467721538011: 1, 0.45291132289883396: 1, 0.45288681547189319: 1, 0.45276085146851586: 1, 0.4525081806599342: 1, 0.45245716371357625: 1, 0.45238153836060102: 1, 0.45237790790961802: 1, 0.45227229452088891: 1, 0.45195733840418745: 1, 0.45176221971127312: 1, 0.45156340312672061: 1, 0.45154544103064514: 1, 0.45150993844229997: 1, 0.45144817838279949: 1, 0.45135921909433024: 1, 0.45125082326379717: 1, 0.4511961930721794: 1, 0.45114793856549146: 1, 0.45106703207327037: 1, 0.45104641560535719: 1, 0.45104027921271256: 1, 0.45085765142322259: 1, 0.45079318262189533: 1, 0.45079110285409596: 1, 0.45078398285774463: 1, 0.45070640247143284: 1, 0.45064125437855329: 1, 0.45060802212675544: 1, 0.45060168085302238: 1, 0.45021931045955105: 1, 0.45018785690098245: 1, 0.45006806353146167: 1, 0.45002777342951888: 1, 0.44995528242697053: 1, 0.44990301326022836: 1, 0.44988675535362888: 1, 0.44984294686256771: 1, 0.44983981425686714: 1, 0.44974646546076752: 1, 0.44970009428028407: 1, 0.44969404135458096: 1, 0.44933111023306133: 1, 0.44915099176105483: 1, 0.44906116675101104: 1, 0.4489538354056819: 1, 0.44891789818786343: 1, 0.44882626392040531: 1, 0.44881469834361043: 1, 0.44877497071263894: 1, 0.448711384044648: 1, 0.44867181399926459: 1, 0.44853077150667114: 1, 0.44843137219587409: 1, 0.44828426352867129: 1, 0.44823586853438419: 1, 0.44818411312109763: 1, 0.44817104673570823: 1, 0.44814248292778197: 1, 0.44811135164550364: 1, 0.44804650341100505: 1, 0.4479767738363844: 1, 0.44792699134293396: 1, 0.44790937680654108: 1, 0.44779152152337265: 1, 0.44777388276566615: 1, 0.44776186569629695: 1, 0.44768488993500311: 1, 0.44761453937745971: 1, 0.44760471849920636: 1, 0.44755621046304173: 1, 0.44738916152077907: 1, 0.44729331476862488: 1, 0.44724456279648384: 1, 0.44723419165256323: 1, 0.44722646358791862: 1, 0.4468692062302288: 1, 0.44685184358477997: 1, 0.44681950981737023: 1, 0.44657325695220224: 1, 0.44647892826016411: 1, 0.4463585037615036: 1, 0.44633448367330836: 1, 0.44633350348544321: 1, 0.44631719282234433: 1, 0.44628237841808127: 1, 0.44623266477447304: 1, 0.44611127641330062: 1, 0.44600439464228547: 1, 0.44597247682042745: 1, 0.4458939270138777: 1, 0.44572376655693857: 1, 0.44562764940914484: 1, 0.4455075176348543: 1, 0.44550615423118956: 1, 0.44548171563334776: 1, 0.44540570066363006: 1, 0.44539937091788401: 1, 0.44533338396435179: 1, 0.44528319336313665: 1, 0.44525847671871671: 1, 0.44513841165156182: 1, 0.44504726558118007: 1, 0.44503222903063799: 1, 0.44497919434552519: 1, 0.44494667928660531: 1, 0.44491886962762245: 1, 0.44480217083691043: 1, 0.44474006894442852: 1, 0.4444111580952157: 1, 0.44434294657339901: 1, 0.44418623591696238: 1, 0.44415784055662433: 1, 0.44406593444207026: 1, 0.44398849661078565: 1, 0.44387807212531338: 1, 0.44382791606249189: 1, 0.44372993503166647: 1, 0.44367847843365821: 1, 0.44363543302546665: 1, 0.44362986730635146: 1, 0.44357634664172579: 1, 0.44355156100386978: 1, 0.44354995397949937: 1, 0.44350545407485398: 1, 0.44346509596970862: 1, 0.44343954688270704: 1, 0.44342533980225418: 1, 0.44339186950923176: 1, 0.44335423842472732: 1, 0.44332672863124128: 1, 0.44326701988318884: 1, 0.44325893158210772: 1, 0.44314236737466567: 1, 0.44291423887904502: 1, 0.44287100911203797: 1, 0.44277432398587596: 1, 0.44255978212210717: 1, 0.44248328622251187: 1, 0.44239207329237623: 1, 0.44237142607708607: 1, 0.44226261719047638: 1, 0.44220011609413418: 1, 0.44211559438323567: 1, 0.44196937371744788: 1, 0.44191428155312773: 1, 0.4419133498214845: 1, 0.44183608933955387: 1, 0.44180682308905495: 1, 0.44178111409056764: 1, 0.44174844458844359: 1, 0.4415674798826571: 1, 0.44133529910691005: 1, 0.44129248121121767: 1, 0.44126580224956252: 1, 0.44115536524379018: 1, 0.44113089813183193: 1, 0.44112722149082784: 1, 0.44095398141819225: 1, 0.44076467845240258: 1, 0.44073573881210021: 1, 0.44067368406242319: 1, 0.44065719946463816: 1, 0.44057527260597129: 1, 0.44056987984205842: 1, 0.44054840905983306: 1, 0.44053869945959317: 1, 0.44042767719840387: 1, 0.44021007272873169: 1, 0.44016544203403629: 1, 0.44011833241255666: 1, 0.44006052516384053: 1, 0.44005366734923662: 1, 0.44003329377845712: 1, 0.44000730756791484: 1, 0.44000089525911873: 1, 0.43996849499459306: 1, 0.43995432156455322: 1, 0.43988147388841597: 1, 0.43972259318734541: 1, 0.43971261615577023: 1, 0.4396875266989464: 1, 0.4395336639872266: 1, 0.4394997190455594: 1, 0.43947636634975762: 1, 0.4394508686404589: 1, 0.43927396474953767: 1, 0.43925974090889131: 1, 0.43923870118608538: 1, 0.43923116644921145: 1, 0.43921978298089409: 1, 0.43920229758540141: 1, 0.43916592029066293: 1, 0.43911791667459743: 1, 0.43902235147272284: 1, 0.43899196377913835: 1, 0.43897200459887747: 1, 0.43882086477368765: 1, 0.43875949314498686: 1, 0.4383901190738882: 1, 0.43830839772845276: 1, 0.43820476529141017: 1, 0.43820170527301516: 1, 0.43814303877933408: 1, 0.43812486559591085: 1, 0.43812256200930805: 1, 0.43807749785814065: 1, 0.43805327058654414: 1, 0.43786693401850141: 1, 0.43779180741727319: 1, 0.4377314973429911: 1, 0.43767081703307681: 1, 0.43767060487602577: 1, 0.43766901225163624: 1, 0.43751129126988186: 1, 0.43750532599803238: 1, 0.43743779431893776: 1, 0.43736177643123919: 1, 0.43732596467915064: 1, 0.4372989602405401: 1, 0.43700824222585022: 1, 0.43686211714538209: 1, 0.43682379276692396: 1, 0.43680307291038001: 1, 0.43671684623693707: 1, 0.43660581136785964: 1, 0.43658234295505782: 1, 0.43654798923070676: 1, 0.43654338364986167: 1, 0.43649786353474446: 1, 0.43637748263534382: 1, 0.43625215688809005: 1, 0.43597399341556264: 1, 0.43572865314102244: 1, 0.43568792603513923: 1, 0.43564277094378112: 1, 0.43552977974333068: 1, 0.43549647058357338: 1, 0.43548886876404064: 1, 0.43546996722242726: 1, 0.43541156450164736: 1, 0.4354071751301461: 1, 0.43539184993840241: 1, 0.43525753271024931: 1, 0.43503145101947871: 1, 0.4348788813388873: 1, 0.43483720929284342: 1, 0.43477755816474695: 1, 0.43471707364393652: 1, 0.43465255879807524: 1, 0.43465138155614502: 1, 0.43459110677057627: 1, 0.43456981920493526: 1, 0.43456130713635371: 1, 0.43448075894041949: 1, 0.43438968179081355: 1, 0.43407995275410061: 1, 0.43398197228774993: 1, 0.4339694369224858: 1, 0.43390145766342159: 1, 0.43388107542869014: 1, 0.43387145147103351: 1, 0.4338345333288019: 1, 0.43363696825626696: 1, 0.43360392546693849: 1, 0.43358558652018542: 1, 0.43339409150376051: 1, 0.43320807259673982: 1, 0.43314136228486694: 1, 0.43310073761729934: 1, 0.43307594351496437: 1, 0.43301756227946581: 1, 0.43300798173142852: 1, 0.4329314693168495: 1, 0.4329245687452884: 1, 0.43282534035684145: 1, 0.43269426225952184: 1, 0.4326538369600969: 1, 0.43263226047505449: 1, 0.43261794099333345: 1, 0.43259477131568219: 1, 0.4324764610050148: 1, 0.43244522327410262: 1, 0.4323081073802712: 1, 0.43222030722073307: 1, 0.43220682878443273: 1, 0.43205759074641142: 1, 0.4319317510723773: 1, 0.4319193183374575: 1, 0.431917698158303: 1, 0.43188122414929364: 1, 0.43174993746152501: 1, 0.43174821553143955: 1, 0.43168873807344682: 1, 0.43161477184621883: 1, 0.43157644594915373: 1, 0.431576258451358: 1, 0.43130278035334219: 1, 0.43120441948210964: 1, 0.43120417975212377: 1, 0.43120063500026951: 1, 0.43103495410255682: 1, 0.43102435820634055: 1, 0.43101967065228058: 1, 0.43099875143282856: 1, 0.43099550345509224: 1, 0.43096913648143753: 1, 0.43095892724610846: 1, 0.43086834928249995: 1, 0.43076946020586515: 1, 0.43074953005372169: 1, 0.43073963196335596: 1, 0.43069844389907075: 1, 0.43067303521292821: 1, 0.43065348167079726: 1, 0.43047531158117708: 1, 0.43023987070142583: 1, 0.43006003158054867: 1, 0.42999834304357232: 1, 0.42995311016123966: 1, 0.42982810854537296: 1, 0.42975682258310227: 1, 0.42972601264707366: 1, 0.42964621036471251: 1, 0.42961302330978818: 1, 0.4295474687587052: 1, 0.42949375666032902: 1, 0.42944733915812533: 1, 0.42943867134312641: 1, 0.42932709706833022: 1, 0.4292264773818682: 1, 0.42917415186044211: 1, 0.42915663631569995: 1, 0.42886493339446746: 1, 0.42884326737916384: 1, 0.42866202896978178: 1, 0.4286303398103179: 1, 0.42842883665268716: 1, 0.42816182102943251: 1, 0.42805771457240049: 1, 0.4280544315438663: 1, 0.42803209619721905: 1, 0.4279928340509499: 1, 0.42794535843762455: 1, 0.42781661903906271: 1, 0.42769092865705477: 1, 0.4275841383733206: 1, 0.42755424483409438: 1, 0.42753759158766758: 1, 0.42748788554096939: 1, 0.42741543347415217: 1, 0.42739593618802257: 1, 0.42730425106888958: 1, 0.42728074369315588: 1, 0.42727524317367621: 1, 0.4270549732026484: 1, 0.42702015040774721: 1, 0.42700085910989061: 1, 0.42697399047649032: 1, 0.42695807462913937: 1, 0.42686942497626029: 1, 0.42678031362881463: 1, 0.42675048849196573: 1, 0.42654758194350451: 1, 0.42651856602287225: 1, 0.42645185617065179: 1, 0.42642682606275034: 1, 0.42625893051209718: 1, 0.42611816144100151: 1, 0.42604143511443127: 1, 0.42590636273183285: 1, 0.42581628340474154: 1, 0.42580689842584662: 1, 0.42578621920195869: 1, 0.42578419953042551: 1, 0.42574899355557727: 1, 0.42568768613694752: 1, 0.42567199298856467: 1, 0.42550074048005859: 1, 0.42549795103726673: 1, 0.4254744537183941: 1, 0.42535646052583398: 1, 0.42534522378486794: 1, 0.42514333203364613: 1, 0.42513186040058659: 1, 0.42511174123606127: 1, 0.42500994231172518: 1, 0.42491659230267759: 1, 0.42485432406014439: 1, 0.424853806134254: 1, 0.42479244086725138: 1, 0.42467861675268459: 1, 0.42464984745352186: 1, 0.42458781498928444: 1, 0.42437798145356004: 1, 0.42437612043584927: 1, 0.42437232718044843: 1, 0.42436035669910177: 1, 0.42413494398582841: 1, 0.42411260186682448: 1, 0.42404787050726916: 1, 0.42381672533491255: 1, 0.42379880031081557: 1, 0.42376412541128899: 1, 0.4237353361710669: 1, 0.42349400785589414: 1, 0.42348066738744733: 1, 0.4234225084940994: 1, 0.42302765221786143: 1, 0.42301801819783441: 1, 0.42299393871620133: 1, 0.42298660519610504: 1, 0.42285523761947308: 1, 0.42282212528654389: 1, 0.42281512330017373: 1, 0.42247296803567935: 1, 0.42246885706668086: 1, 0.42236583770916125: 1, 0.42236479415523492: 1, 0.42233921905282601: 1, 0.42231593666797568: 1, 0.42229955715615897: 1, 0.42229728571669939: 1, 0.42216624052111051: 1, 0.42204903679367151: 1, 0.42188305638987905: 1, 0.42188103682463518: 1, 0.4218571341140554: 1, 0.4218233820433816: 1, 0.42178405531155894: 1, 0.42177157237658525: 1, 0.42171414195804741: 1, 0.42148560325119322: 1, 0.42147947599055086: 1, 0.42144882586582622: 1, 0.42141615981458524: 1, 0.42121424886951575: 1, 0.42121027664788491: 1, 0.42120084665811658: 1, 0.42115102745454297: 1, 0.42106858889021342: 1, 0.42091569746177959: 1, 0.42084424513314955: 1, 0.42076611886376558: 1, 0.42068208527029599: 1, 0.42065322405286032: 1, 0.42049122917525183: 1, 0.42033094410197802: 1, 0.42030012811508943: 1, 0.42023923176566441: 1, 0.42013580419280383: 1, 0.42012811527426558: 1, 0.42000829057401756: 1, 0.4199643362071393: 1, 0.419638503237941: 1, 0.41957848165797879: 1, 0.41953141590363818: 1, 0.4195130875471616: 1, 0.41948831823644683: 1, 0.41946902127096081: 1, 0.41944231440476315: 1, 0.41929437207709319: 1, 0.41925211253969719: 1, 0.41925183767144447: 1, 0.41923152204863046: 1, 0.41919273440167121: 1, 0.41918868238441143: 1, 0.41916221595419029: 1, 0.41908153121201447: 1, 0.41904711510569759: 1, 0.41892745716499113: 1, 0.41878424316446605: 1, 0.41877014588263295: 1, 0.41876595967452224: 1, 0.41876300214494938: 1, 0.41861866581277113: 1, 0.41841713599270108: 1, 0.41840246824076271: 1, 0.4183757549971473: 1, 0.41836410973053351: 1, 0.41835840816013098: 1, 0.4183303580983837: 1, 0.41831735827954175: 1, 0.41817907423570022: 1, 0.41796003318598124: 1, 0.41790080496355392: 1, 0.41785014760832012: 1, 0.41783397379031639: 1, 0.41757564151532434: 1, 0.41757329259347992: 1, 0.41755639931219024: 1, 0.41748271898524125: 1, 0.41742329015751367: 1, 0.41724056933139442: 1, 0.41716023582576284: 1, 0.41708570220942148: 1, 0.41701401927913656: 1, 0.41690472463450656: 1, 0.41677935489989582: 1, 0.41677750434588312: 1, 0.41670456366126668: 1, 0.41668153399491997: 1, 0.41659027567973944: 1, 0.41654595854762211: 1, 0.41637765289761047: 1, 0.41636684922860279: 1, 0.41634618514815042: 1, 0.4162572650814429: 1, 0.41621466935064005: 1, 0.41605392961218618: 1, 0.41588904939502808: 1, 0.41587269040659214: 1, 0.41579582647501895: 1, 0.41578407463838996: 1, 0.4156976394179977: 1, 0.41563950590180399: 1, 0.41544584725861283: 1, 0.41543557983388107: 1, 0.41535678913686219: 1, 0.41535670720523704: 1, 0.41524216015629761: 1, 0.41523826509705541: 1, 0.41521888279006669: 1, 0.41508847275339983: 1, 0.4150563378607327: 1, 0.41493561445801724: 1, 0.41493539287369435: 1, 0.41492916107036243: 1, 0.41492824600351996: 1, 0.41488222810040348: 1, 0.41478824068468123: 1, 0.41474842496884445: 1, 0.41463740785240927: 1, 0.41458098695906459: 1, 0.41454528096284704: 1, 0.4144570504688383: 1, 0.41442799825917187: 1, 0.41440210578883196: 1, 0.41438958194151132: 1, 0.4143153625682181: 1, 0.41423361575380385: 1, 0.41418318543103322: 1, 0.41417541946405806: 1, 0.41412750659462277: 1, 0.41410464806030411: 1, 0.41390761119566338: 1, 0.41376935685011529: 1, 0.41375810671201985: 1, 0.41369412415046558: 1, 0.4136020024523292: 1, 0.4135831278520033: 1, 0.41340732037641975: 1, 0.41336209885680131: 1, 0.41329543742644875: 1, 0.41310727184648693: 1, 0.41309646498086616: 1, 0.41307863375839232: 1, 0.41302945168373978: 1, 0.41298802868035883: 1, 0.41294394514061122: 1, 0.41291561317924752: 1, 0.41286700816408539: 1, 0.41277536503272477: 1, 0.41274502116312173: 1, 0.41272866335371333: 1, 0.41271705919933199: 1, 0.41270101725219227: 1, 0.41268704494281783: 1, 0.41259865989000916: 1, 0.41256156449388298: 1, 0.41237463370354949: 1, 0.41232472679243815: 1, 0.41227635724644413: 1, 0.41221261066341242: 1, 0.41220142753439681: 1, 0.41207357693697078: 1, 0.41205403756062042: 1, 0.41204145681584187: 1, 0.41196282736579815: 1, 0.41189081174072395: 1, 0.41179376124489619: 1, 0.41173086413718313: 1, 0.41169703375943317: 1, 0.4114349900615491: 1, 0.41143151636282393: 1, 0.41142319955342543: 1, 0.41134215458611018: 1, 0.41127729427241638: 1, 0.41123658637258154: 1, 0.41116685304560785: 1, 0.41083109565389681: 1, 0.41079123434661707: 1, 0.41076590734033908: 1, 0.41068744416390524: 1, 0.41054024016124518: 1, 0.41047808164781413: 1, 0.41037994977848635: 1, 0.41032210292027554: 1, 0.41030002289068856: 1, 0.41018506626363899: 1, 0.41010821068489456: 1, 0.41008019698577075: 1, 0.41004570762024595: 1, 0.40989925957020706: 1, 0.40981331859195674: 1, 0.40978414403088242: 1, 0.40975710241290919: 1, 0.40974932279879317: 1, 0.40974135179784177: 1, 0.409695223138621: 1, 0.40967666209711168: 1, 0.40967076091740562: 1, 0.40959648337061944: 1, 0.40950295483249616: 1, 0.40945112115056037: 1, 0.4094038644570408: 1, 0.40923227431168491: 1, 0.40909489920983383: 1, 0.40906414360029714: 1, 0.40893108524093769: 1, 0.4088757776315417: 1, 0.40884205551723302: 1, 0.40882683398193342: 1, 0.40878285448469315: 1, 0.40877570979087441: 1, 0.40875962973504126: 1, 0.40874173676136877: 1, 0.40838578071117543: 1, 0.40838456167350973: 1, 0.40822449297338903: 1, 0.40802725799520606: 1, 0.40802711553614684: 1, 0.40801208708525322: 1, 0.40796767273407103: 1, 0.40786745842669991: 1, 0.40780547499646463: 1, 0.40766870486863754: 1, 0.40760564714302694: 1, 0.40760237986298359: 1, 0.40748794356300228: 1, 0.40746259644209171: 1, 0.40739881338376255: 1, 0.40731439939757014: 1, 0.40731310898314416: 1, 0.40726740517860954: 1, 0.40720654089290026: 1, 0.40719529899634249: 1, 0.40717626128608286: 1, 0.40706905596600479: 1, 0.40686585377888934: 1, 0.40673344377499232: 1, 0.40669347635649328: 1, 0.40653223712008657: 1, 0.40644664395988545: 1, 0.40638048566656293: 1, 0.40636097554833511: 1, 0.40631410594102391: 1, 0.40628314036837171: 1, 0.40621493157343963: 1, 0.40616419998451914: 1, 0.4061297419509613: 1, 0.40612732027791149: 1, 0.40594345236737434: 1, 0.40588537463185875: 1, 0.4057875487087213: 1, 0.40578106443004397: 1, 0.40577490775461933: 1, 0.40576151624017426: 1, 0.4057526085442536: 1, 0.40572971553773091: 1, 0.40571180869159718: 1, 0.40565961725748156: 1, 0.40564403388084763: 1, 0.40562995398707624: 1, 0.40560127515094413: 1, 0.40539793740162083: 1, 0.40538782046977684: 1, 0.40537317709893028: 1, 0.40535282648669241: 1, 0.40534276408236447: 1, 0.40530065108340657: 1, 0.40526219828490717: 1, 0.40521553380764513: 1, 0.40514252939226469: 1, 0.4050689630050659: 1, 0.40501732082340525: 1, 0.40499491870620208: 1, 0.40483723805876226: 1, 0.40483195013933049: 1, 0.40482719612019719: 1, 0.40478753239527904: 1, 0.4047868571691875: 1, 0.40462899106425776: 1, 0.40459390594261974: 1, 0.40458478645505502: 1, 0.40457039086788443: 1, 0.40451541673149166: 1, 0.40449474093035331: 1, 0.40445419469352872: 1, 0.40433632054543839: 1, 0.4042969131764928: 1, 0.40424129983937546: 1, 0.40419443455787707: 1, 0.40416846230086267: 1, 0.40416810819537324: 1, 0.40383632784960138: 1, 0.4038314672294589: 1, 0.40382618984276142: 1, 0.40379448233149906: 1, 0.40363305247922343: 1, 0.40359650722816759: 1, 0.40357046641981614: 1, 0.40339873380295199: 1, 0.40332161142238593: 1, 0.40322607209342576: 1, 0.40317038385169918: 1, 0.40316299394198785: 1, 0.40313582521909486: 1, 0.40312190586890601: 1, 0.40311807627923102: 1, 0.40307528028551609: 1, 0.40298197400524927: 1, 0.40297545592343009: 1, 0.402961940106289: 1, 0.40279621103720881: 1, 0.40273027696419106: 1, 0.40256300085009777: 1, 0.40250952976564525: 1, 0.40247211705771047: 1, 0.40241424823949407: 1, 0.40241215814724057: 1, 0.40231727582829874: 1, 0.40228168336591419: 1, 0.40219774403124214: 1, 0.40217642912799145: 1, 0.40213907394773074: 1, 0.40209680677293019: 1, 0.40209227862784891: 1, 0.40207921946105596: 1, 0.40205651278512178: 1, 0.40194697966615733: 1, 0.40191972732912185: 1, 0.40187655682582346: 1, 0.40180589845457343: 1, 0.40180463480271122: 1, 0.40169996210162695: 1, 0.40165798193669711: 1, 0.40165626296054002: 1, 0.40165544314018103: 1, 0.40158978854085292: 1, 0.40156520908248389: 1, 0.40135616210815445: 1, 0.40135554161651182: 1, 0.40135434537603787: 1, 0.40132993783638354: 1, 0.40128561129417406: 1, 0.40125121423625232: 1, 0.40123966916525861: 1, 0.40119698141863974: 1, 0.4011867707657405: 1, 0.40118489178813044: 1, 0.40115243694915526: 1, 0.4011226406460292: 1, 0.40111592411648395: 1, 0.40105897396263379: 1, 0.40092864687366359: 1, 0.40092199904208836: 1, 0.40079282192841226: 1, 0.40075590834897534: 1, 0.40066167579024775: 1, 0.40059966559109966: 1, 0.40054053207123014: 1, 0.4005076769709926: 1, 0.40045339538998931: 1, 0.40030475430515577: 1, 0.40019507779948693: 1, 0.40014447952110732: 1, 0.40004024632351676: 1, 0.39998738601192346: 1, 0.39996967139432121: 1, 0.39987010076362567: 1, 0.39978404456290279: 1, 0.3997238726579288: 1, 0.39971812797173001: 1, 0.3996244049764488: 1, 0.39962007540842298: 1, 0.39961928285911241: 1, 0.39957618560084734: 1, 0.39951407371684206: 1, 0.39948250736192931: 1, 0.39947442222249518: 1, 0.39946902076333596: 1, 0.39935595824346443: 1, 0.39923775767054404: 1, 0.3992150297003399: 1, 0.39920183383668872: 1, 0.39918518817108589: 1, 0.39915756818890974: 1, 0.39913533779040866: 1, 0.39909784341102733: 1, 0.39908350645914009: 1, 0.39898243320646076: 1, 0.39889967274761617: 1, 0.39888149891019842: 1, 0.39887919104168057: 1, 0.39882211355993241: 1, 0.39863095170748303: 1, 0.3986176038861603: 1, 0.39857372240095673: 1, 0.3985026568632673: 1, 0.39833769067320574: 1, 0.3982862725050394: 1, 0.39827765220627603: 1, 0.39825948050221927: 1, 0.39816871510257379: 1, 0.39807224519685869: 1, 0.39802554541094265: 1, 0.39792226826953203: 1, 0.39770515747122953: 1, 0.39755809826437172: 1, 0.39755385398236298: 1, 0.39746109374856908: 1, 0.39741630629011176: 1, 0.39741496288667338: 1, 0.39740720263853213: 1, 0.39734865031387806: 1, 0.39724464181292035: 1, 0.39722004689730694: 1, 0.39721831604301622: 1, 0.39703134158092201: 1, 0.39683079366043894: 1, 0.39677149611644735: 1, 0.39671598181179957: 1, 0.39670114412851848: 1, 0.39657962309200329: 1, 0.39633290752098554: 1, 0.39630221735949339: 1, 0.39622459400959859: 1, 0.3960957998662078: 1, 0.39608784030838357: 1, 0.39583962774788173: 1, 0.39580189238762142: 1, 0.3956939310095397: 1, 0.39555180832132997: 1, 0.39550560598451162: 1, 0.39548423802724048: 1, 0.39525393537338926: 1, 0.39522899895652003: 1, 0.39516078033103147: 1, 0.39514218847779253: 1, 0.39510465661051458: 1, 0.39508617018191489: 1, 0.39496043727150548: 1, 0.39493028776873468: 1, 0.39488490903688184: 1, 0.39487577082462649: 1, 0.39485161278470959: 1, 0.39475357333836031: 1, 0.39469898914305163: 1, 0.39466498527361787: 1, 0.39460221970122977: 1, 0.39450310217864654: 1, 0.39444045146408907: 1, 0.39443619989099277: 1, 0.39427099775900531: 1, 0.39424086428632926: 1, 0.39423161062020218: 1, 0.39417896022943122: 1, 0.39415352829210532: 1, 0.39407560629889005: 1, 0.39394443924390216: 1, 0.39393967002255581: 1, 0.39387526024746683: 1, 0.39379876368536942: 1, 0.39374548028933959: 1, 0.39369932225800153: 1, 0.39369402732154635: 1, 0.39360307728996424: 1, 0.39355031102899424: 1, 0.39347418258979439: 1, 0.39341534030880415: 1, 0.39341404800830587: 1, 0.39336769275344152: 1, 0.39333367194719354: 1, 0.3933150739109062: 1, 0.39325082236769765: 1, 0.39324158821492927: 1, 0.39309795137737469: 1, 0.39306342680140915: 1, 0.39301046939974366: 1, 0.39277181023292201: 1, 0.39270908771782453: 1, 0.39260753786129038: 1, 0.39256508767750226: 1, 0.3925237637391209: 1, 0.39248060778551747: 1, 0.39238518621432511: 1, 0.3923138268501638: 1, 0.39230376276857909: 1, 0.39221350389101434: 1, 0.39207218710359215: 1, 0.391961934347687: 1, 0.39184262715697116: 1, 0.39177342243386359: 1, 0.39169372813878534: 1, 0.39168713589949283: 1, 0.39159688676323251: 1, 0.39154469113356688: 1, 0.39141096970957912: 1, 0.39128336470689074: 1, 0.39126218349843017: 1, 0.39126166240896842: 1, 0.39123244570640214: 1, 0.39120611786370801: 1, 0.39118014643146193: 1, 0.39115673464853351: 1, 0.39111407461732206: 1, 0.39109837484289028: 1, 0.39105986784897412: 1, 0.3910413682709834: 1, 0.39098648412467546: 1, 0.39094457562273177: 1, 0.39086741830276273: 1, 0.39074345636743135: 1, 0.39070761577739377: 1, 0.39066929669762651: 1, 0.39066677042944953: 1, 0.39065357635911285: 1, 0.39064622272931793: 1, 0.39053705447267212: 1, 0.39048121867515972: 1, 0.39043596962131016: 1, 0.39038422109047555: 1, 0.39026823378056896: 1, 0.39026601741178113: 1, 0.39024938511271001: 1, 0.39022439726790054: 1, 0.39020346148394547: 1, 0.39018862411655664: 1, 0.39012790902279243: 1, 0.39012099088650687: 1, 0.38983461208455594: 1, 0.38975028609115564: 1, 0.38968058083110035: 1, 0.38965139139557792: 1, 0.38953114318365123: 1, 0.38952270797661775: 1, 0.389462784818431: 1, 0.38937607931412516: 1, 0.38926476305745494: 1, 0.38924221983865237: 1, 0.38922035801827731: 1, 0.38910519942200822: 1, 0.38909026713003958: 1, 0.38895256587724331: 1, 0.38888885351197527: 1, 0.3888755466376424: 1, 0.38878346516173079: 1, 0.38870501787274409: 1, 0.38865196443903871: 1, 0.38857835915584238: 1, 0.38841149698290001: 1, 0.38841146070550475: 1, 0.38839336631211602: 1, 0.38839284065915874: 1, 0.3882831559409039: 1, 0.38825648902242144: 1, 0.38814397733357747: 1, 0.38811023395939276: 1, 0.38810290758899602: 1, 0.38804105585281823: 1, 0.38803503728303373: 1, 0.38798059910329674: 1, 0.38774254838544225: 1, 0.3876905766437414: 1, 0.38759458419709164: 1, 0.38755198499046617: 1, 0.38754941291789891: 1, 0.3874756787950796: 1, 0.38737605099228628: 1, 0.38731654995405035: 1, 0.38727768462584772: 1, 0.38726788328383449: 1, 0.38724392733012453: 1, 0.38717662186544555: 1, 0.38705411321749184: 1, 0.38704249606775282: 1, 0.38701722549448048: 1, 0.38697497633855299: 1, 0.3869060185792374: 1, 0.38684593063153999: 1, 0.38684546188180691: 1, 0.38683096125106753: 1, 0.38670824271012105: 1, 0.38670309028312122: 1, 0.38668375973307156: 1, 0.38665302459339068: 1, 0.38655958001548385: 1, 0.38651194150725171: 1, 0.3864828358183674: 1, 0.3862994642547421: 1, 0.3862591583088687: 1, 0.38622783753451723: 1, 0.38619784667602719: 1, 0.38619094283911798: 1, 0.38614559323454123: 1, 0.3860350428789277: 1, 0.38594627533862008: 1, 0.38592232270467081: 1, 0.38581937554248324: 1, 0.3858192016379583: 1, 0.38546426683947793: 1, 0.38532504800179457: 1, 0.38520729177030855: 1, 0.38511912251181041: 1, 0.38480909162552751: 1, 0.38464787238992543: 1, 0.38448786321375616: 1, 0.3843805777804743: 1, 0.38429179538873254: 1, 0.38419628151567065: 1, 0.38408491319749138: 1, 0.38406771487806418: 1, 0.38406672936363945: 1, 0.38397886676415183: 1, 0.38390213981279575: 1, 0.38373359718158156: 1, 0.38368136732359748: 1, 0.38343913697901577: 1, 0.38337875284882805: 1, 0.38320901755491316: 1, 0.38315247115164613: 1, 0.3831499652948599: 1, 0.3831235027038809: 1, 0.38312032266907242: 1, 0.38308280183972188: 1, 0.38295666279115859: 1, 0.38292873554445039: 1, 0.38288164832146637: 1, 0.3828622089976837: 1, 0.38278071887919396: 1, 0.38277600587262894: 1, 0.38277585355070926: 1, 0.38269155437733432: 1, 0.38260015617972892: 1, 0.38257485264608476: 1, 0.38255733583758811: 1, 0.38254288776951545: 1, 0.38250506056155759: 1, 0.38249837142101617: 1, 0.38244266594324589: 1, 0.38240942640845388: 1, 0.38239086558642688: 1, 0.38230946703968133: 1, 0.3820821761974541: 1, 0.38206868366468422: 1, 0.3818498586976673: 1, 0.3815439256464539: 1, 0.38151166982052581: 1, 0.38143616432082289: 1, 0.38142103645304193: 1, 0.38138050662868306: 1, 0.38127120009503379: 1, 0.381263402510299: 1, 0.38121997860914936: 1, 0.38114782050885015: 1, 0.38113168575287437: 1, 0.38104695795108096: 1, 0.38104194737043173: 1, 0.38100306284847718: 1, 0.38096638995528642: 1, 0.3809505550228483: 1, 0.3808728625808192: 1, 0.38075873400794752: 1, 0.38060580452957588: 1, 0.38051634451938748: 1, 0.38043182336948844: 1, 0.38037199443926983: 1, 0.3803283794920439: 1, 0.38032612052224279: 1, 0.38026235674989889: 1, 0.38026043532356241: 1, 0.38021930709547253: 1, 0.38017629798505131: 1, 0.38003121956783731: 1, 0.38001874268945951: 1, 0.38000803592584048: 1, 0.37996121880464473: 1, 0.37991150131654583: 1, 0.3798949036571736: 1, 0.37988265077924688: 1, 0.37978566267819386: 1, 0.37977931136688697: 1, 0.37975317526700619: 1, 0.37966065899118567: 1, 0.37962203110997933: 1, 0.37947577013004702: 1, 0.37933838843059697: 1, 0.37925017464748895: 1, 0.37919653986240776: 1, 0.37892677844603739: 1, 0.37870303822979418: 1, 0.37858646317766026: 1, 0.37851505867756075: 1, 0.37846099179508547: 1, 0.37844411194823269: 1, 0.37841844521752754: 1, 0.37840888851520432: 1, 0.37839098730089887: 1, 0.37839085434195535: 1, 0.37838712467636165: 1, 0.37837926188282511: 1, 0.37837539197510578: 1, 0.37835058397036281: 1, 0.37830477002586399: 1, 0.37827240786564392: 1, 0.37818053064707535: 1, 0.37813994719058003: 1, 0.37810063362623703: 1, 0.37802118353247866: 1, 0.377893372898365: 1, 0.37788715511627313: 1, 0.37782556699847347: 1, 0.37768724080053651: 1, 0.37767795987230723: 1, 0.37728953057212378: 1, 0.37726867971954708: 1, 0.37723797071910559: 1, 0.37718220194812907: 1, 0.37709192950800879: 1, 0.37708047141024509: 1, 0.37707480584195224: 1, 0.37705462277045465: 1, 0.37696292653564933: 1, 0.37693080481539576: 1, 0.376910911232889: 1, 0.37690921400568261: 1, 0.37689986133988684: 1, 0.37689699667265869: 1, 0.37681589371785101: 1, 0.37672687688441742: 1, 0.37654308131305192: 1, 0.37647859207578788: 1, 0.37643387968347686: 1, 0.37642436817716202: 1, 0.37633581135581656: 1, 0.37629483954032183: 1, 0.37624960188398437: 1, 0.37604969806813232: 1, 0.3760389108037927: 1, 0.37595468046944092: 1, 0.37576983892688032: 1, 0.3757029492857844: 1, 0.37558842388521607: 1, 0.3754928428326359: 1, 0.37548132170525506: 1, 0.37538661171728266: 1, 0.37537059829661468: 1, 0.37534844206959744: 1, 0.37528695786473582: 1, 0.37504819304854503: 1, 0.37503897848499523: 1, 0.37502974642612541: 1, 0.37500100131562669: 1, 0.37496273535580882: 1, 0.37493026614670844: 1, 0.37473032796965289: 1, 0.3747200114232615: 1, 0.37463076498337877: 1, 0.37450399886481706: 1, 0.37444250238947568: 1, 0.37441785010297307: 1, 0.37436660423224311: 1, 0.37427907000717087: 1, 0.37398850428988306: 1, 0.37386170151914933: 1, 0.37378556221878262: 1, 0.37374503276478249: 1, 0.37366274872301758: 1, 0.37355180689582268: 1, 0.37351977811286585: 1, 0.3734141466949038: 1, 0.37336767636904578: 1, 0.37333852467293277: 1, 0.37332564162094578: 1, 0.37330670869589855: 1, 0.37326306866984627: 1, 0.37314592725128243: 1, 0.37312166294591959: 1, 0.37293814496393829: 1, 0.37278655201033234: 1, 0.37278224487126443: 1, 0.37273148627679747: 1, 0.37272927414573753: 1, 0.37245074223111774: 1, 0.37241731629210834: 1, 0.37239586982779377: 1, 0.37237761092605326: 1, 0.37235067589363774: 1, 0.3722692838832245: 1, 0.37223002084460199: 1, 0.37215732490677833: 1, 0.37206770860679556: 1, 0.37204921410422509: 1, 0.3720281898325809: 1, 0.37201224415901701: 1, 0.37196883211585724: 1, 0.37192551736886803: 1, 0.37181628622760604: 1, 0.37164256577908322: 1, 0.37135128196960032: 1, 0.37123887918482606: 1, 0.37106423562205987: 1, 0.37083219146560842: 1, 0.37083053220122886: 1, 0.37075039799220466: 1, 0.37071282659645077: 1, 0.37071125687462131: 1, 0.37067636702139317: 1, 0.37057552720628334: 1, 0.37053418861808468: 1, 0.37053041845477175: 1, 0.37051532875071602: 1, 0.37039366979803018: 1, 0.37036935776956548: 1, 0.3703157427421635: 1, 0.37025030314076979: 1, 0.37024881904797086: 1, 0.37024404928921262: 1, 0.37024319482326112: 1, 0.37023243525410288: 1, 0.37022457026034766: 1, 0.37011764418246629: 1, 0.37009220817763416: 1, 0.37001616647026897: 1, 0.36985374530276732: 1, 0.36978297610635547: 1, 0.36970541463068451: 1, 0.36965862275013378: 1, 0.36965570033551565: 1, 0.36958981893487125: 1, 0.36950346811202783: 1, 0.36934752250063707: 1, 0.369303416524842: 1, 0.36925913275309702: 1, 0.36914085704764088: 1, 0.36911911897347716: 1, 0.36908335642786572: 1, 0.3690537108799235: 1, 0.36895101378964223: 1, 0.36890872108759803: 1, 0.36883002004922943: 1, 0.3688137671576891: 1, 0.36880911156046065: 1, 0.36869561422164621: 1, 0.3686329646660238: 1, 0.36862617445489171: 1, 0.36858681505603047: 1, 0.3685165009763795: 1, 0.36850137873682104: 1, 0.3684496508188107: 1, 0.36840304268985624: 1, 0.36837705098255424: 1, 0.36832730277246745: 1, 0.36827504281390144: 1, 0.36826682395113897: 1, 0.36824978038000383: 1, 0.36822756501848758: 1, 0.36818695593909656: 1, 0.36812598622998194: 1, 0.36810063539759175: 1, 0.36799526229720131: 1, 0.36788761158285577: 1, 0.3678711082046251: 1, 0.36785712800174586: 1, 0.36785591511292798: 1, 0.36784295357426433: 1, 0.36783369750676909: 1, 0.36777950020548383: 1, 0.36758013184765154: 1, 0.36756508022767614: 1, 0.36746616976514274: 1, 0.36744122516435701: 1, 0.36731106339993247: 1, 0.36730952840170017: 1, 0.36727312789761729: 1, 0.36723594232131762: 1, 0.36716441356674984: 1, 0.36716047699783466: 1, 0.36713227150770117: 1, 0.36700568788139365: 1, 0.36696396513286195: 1, 0.36692484707417533: 1, 0.36685158650476313: 1, 0.36677858521908702: 1, 0.3667503408481676: 1, 0.36667321693334254: 1, 0.36665557008657385: 1, 0.36665520734183554: 1, 0.36655309832543165: 1, 0.36654640280218248: 1, 0.36652191224053721: 1, 0.36644691203110241: 1, 0.36640662278514757: 1, 0.36639564841483158: 1, 0.36639226782867629: 1, 0.3663831846875234: 1, 0.36631064203913821: 1, 0.36625720549543606: 1, 0.36623607644602862: 1, 0.36612923528924673: 1, 0.36603201584134493: 1, 0.36597966561435435: 1, 0.36597705129775804: 1, 0.36582471180488974: 1, 0.36581787073023331: 1, 0.36574151679325634: 1, 0.36562256178754532: 1, 0.36561323604703128: 1, 0.36554625413215319: 1, 0.3654496257256295: 1, 0.36538248206955881: 1, 0.36537385237575887: 1, 0.3653670211141164: 1, 0.36535315766125348: 1, 0.36534423361955215: 1, 0.36529634251834719: 1, 0.36523926945027924: 1, 0.36520644267812125: 1, 0.36512694251946598: 1, 0.3650211657652575: 1, 0.36500954747771874: 1, 0.36499186062134092: 1, 0.36477073312982128: 1, 0.364638934195197: 1, 0.3646338441057782: 1, 0.36463222232176729: 1, 0.36462413978728242: 1, 0.36460657311107164: 1, 0.3644963906687026: 1, 0.36442290962921103: 1, 0.36435233665360461: 1, 0.36435131355661821: 1, 0.3643443089160267: 1, 0.3643322735688323: 1, 0.36433018679784046: 1, 0.36426239644935354: 1, 0.3640959727536624: 1, 0.36409037517712672: 1, 0.36407663542738805: 1, 0.36393937010169003: 1, 0.36386105689123271: 1, 0.36385952234308189: 1, 0.36383933145963909: 1, 0.36382999953645501: 1, 0.36380577512134282: 1, 0.36377200212586552: 1, 0.36374298314839054: 1, 0.36371763983553307: 1, 0.36363474501799725: 1, 0.36360398650531767: 1, 0.36355849115593669: 1, 0.36352183162609908: 1, 0.36349357369461865: 1, 0.3634744434052179: 1, 0.36342180359527287: 1, 0.36334147968656394: 1, 0.36329632707259224: 1, 0.36325162277258621: 1, 0.36323230677008933: 1, 0.3631631829160899: 1, 0.36316275409406856: 1, 0.36313850147897653: 1, 0.36311477559135219: 1, 0.36310721095085202: 1, 0.36310496351264399: 1, 0.36306837505783618: 1, 0.36303808941802701: 1, 0.36298419198292198: 1, 0.36293818263807998: 1, 0.36286674248995365: 1, 0.36274462095692961: 1, 0.36272158883120137: 1, 0.3626654810767152: 1, 0.36262690913322959: 1, 0.36262471515745981: 1, 0.36260437674568591: 1, 0.36255940234009648: 1, 0.36252594224719081: 1, 0.36248013299859699: 1, 0.36242184242385067: 1, 0.36240404178238639: 1, 0.36236992015435343: 1, 0.36235008573131033: 1, 0.36229840729689761: 1, 0.36226213133359408: 1, 0.36223419075722835: 1, 0.36216801994713665: 1, 0.36213110052017417: 1, 0.361849220499875: 1, 0.36181650131889509: 1, 0.3617951484324628: 1, 0.36172157662977444: 1, 0.36149435616122089: 1, 0.36138566908849368: 1, 0.36131390426848631: 1, 0.36131027296357282: 1, 0.36128090646009248: 1, 0.36124336035995569: 1, 0.36123431987544424: 1, 0.36121164455131483: 1, 0.36116341951434017: 1, 0.36104957148986005: 1, 0.36089330916113843: 1, 0.36077658885209585: 1, 0.36076743964983388: 1, 0.36066092357435897: 1, 0.36065705109342583: 1, 0.36063847600851967: 1, 0.36055748313562686: 1, 0.36054086650241779: 1, 0.3605130035028426: 1, 0.36048657778702697: 1, 0.36002460723133078: 1, 0.35997784180669129: 1, 0.35986954703767415: 1, 0.359774577267366: 1, 0.35975126815102082: 1, 0.35972325867610555: 1, 0.35970335769615175: 1, 0.3596445680711936: 1, 0.35960644978824607: 1, 0.35960240008186645: 1, 0.35953284774730843: 1, 0.35949763508130517: 1, 0.3594816233783244: 1, 0.3594350406104137: 1, 0.35936272678559683: 1, 0.35929831625457209: 1, 0.35929005602044012: 1, 0.35898022956034126: 1, 0.35879461141183833: 1, 0.35879099091171623: 1, 0.3587351865262054: 1, 0.3587236794830555: 1, 0.35871376551057416: 1, 0.35869207992024404: 1, 0.35863593557918855: 1, 0.35861374397190271: 1, 0.35859479848916537: 1, 0.35856873178343784: 1, 0.35852994502440882: 1, 0.35836892321978198: 1, 0.3583122004459125: 1, 0.35826702411687683: 1, 0.35820079615248068: 1, 0.35819683799695029: 1, 0.35817332201534574: 1, 0.35809578956314653: 1, 0.35808194189627385: 1, 0.3580495451642618: 1, 0.35801552250370644: 1, 0.35789849288934539: 1, 0.35787424084347558: 1, 0.35786163579192914: 1, 0.35784496283748163: 1, 0.35779894628733749: 1, 0.35769285812184681: 1, 0.3576515937264117: 1, 0.35759514776917062: 1, 0.35752630034954663: 1, 0.35744188507343877: 1, 0.35743287817770064: 1, 0.35728292900289538: 1, 0.35725632882311736: 1, 0.35725266031700015: 1, 0.35715357420184041: 1, 0.35705382982933165: 1, 0.3570426972550565: 1, 0.35701476874281474: 1, 0.35700408320871724: 1, 0.35697289923145414: 1, 0.35684541810722203: 1, 0.35680649761999583: 1, 0.35674892550752435: 1, 0.35665998008466604: 1, 0.35657330988453978: 1, 0.35636716122710682: 1, 0.35634252280273582: 1, 0.35629425809427001: 1, 0.35623380295577789: 1, 0.35616768903347962: 1, 0.35614444269934631: 1, 0.35614355081625165: 1, 0.35612717492476892: 1, 0.35611810375447062: 1, 0.35609248730538895: 1, 0.35608027321023283: 1, 0.35606617392718465: 1, 0.35602874243654425: 1, 0.3560116974412299: 1, 0.3559830255392763: 1, 0.35598221030909316: 1, 0.35573240176809673: 1, 0.35572391296837008: 1, 0.35565249703582796: 1, 0.35564030622093756: 1, 0.35563479459258091: 1, 0.3555666204943988: 1, 0.35556632727900533: 1, 0.35547465039049314: 1, 0.35547126749935698: 1, 0.35546016824588356: 1, 0.35530015398828485: 1, 0.35521481707093544: 1, 0.35513636744568655: 1, 0.355109035456459: 1, 0.35498629552824212: 1, 0.35478194541413799: 1, 0.35477749333133063: 1, 0.35470414817381568: 1, 0.35464677637113201: 1, 0.35462344002715124: 1, 0.35460663181776414: 1, 0.35453417590481073: 1, 0.35453147716395872: 1, 0.35451875205816596: 1, 0.35450413277404047: 1, 0.35440838871197339: 1, 0.35439832868245413: 1, 0.35436844188398597: 1, 0.35434601604845328: 1, 0.35418525683294499: 1, 0.35413866271427713: 1, 0.35413145725774986: 1, 0.35407983797223996: 1, 0.35401416589047097: 1, 0.3540094780043892: 1, 0.35391452607855356: 1, 0.3538770798639243: 1, 0.35382047507798159: 1, 0.35375567946464276: 1, 0.35374653460657934: 1, 0.35373283669315919: 1, 0.35368801943886896: 1, 0.35364210586020856: 1, 0.35361116944228138: 1, 0.35354502695993117: 1, 0.35350454915637136: 1, 0.35323999257733008: 1, 0.35315735103597629: 1, 0.35312791903862656: 1, 0.35300025010938196: 1, 0.35288255757424547: 1, 0.35287475232022691: 1, 0.35279118319662123: 1, 0.35268377163360848: 1, 0.35261804551414622: 1, 0.35260108081680053: 1, 0.35258860288764499: 1, 0.35255156835149271: 1, 0.35253646256709531: 1, 0.35253123706517697: 1, 0.35249192159064235: 1, 0.35237628154581291: 1, 0.35235607989143969: 1, 0.35232206883951595: 1, 0.3522350719889123: 1, 0.35223172250326773: 1, 0.35218981281772788: 1, 0.35212259053660727: 1, 0.35207622321069032: 1, 0.35205592656851498: 1, 0.3520515193939075: 1, 0.35200695403806753: 1, 0.35193338512400141: 1, 0.35188877060772927: 1, 0.35187010168950805: 1, 0.35186217352374494: 1, 0.35176475233830823: 1, 0.35174894944246027: 1, 0.35171308913295352: 1, 0.35166754995338884: 1, 0.35155661886592821: 1, 0.35149704868924003: 1, 0.35139705983454683: 1, 0.35136169252092098: 1, 0.35134012714069546: 1, 0.35111935819602391: 1, 0.35106207606621465: 1, 0.35103731123386456: 1, 0.35091079043817175: 1, 0.3509103198062562: 1, 0.35089996939842444: 1, 0.35088765276892953: 1, 0.35084904348733392: 1, 0.35078932115911721: 1, 0.35076838365088681: 1, 0.35074253926830756: 1, 0.35053886506914222: 1, 0.35041125108696308: 1, 0.35039893213975742: 1, 0.3502139168001675: 1, 0.35020922050963244: 1, 0.35020803758606645: 1, 0.35015865411811964: 1, 0.35003000429834247: 1, 0.35000559278811894: 1, 0.34998043208626572: 1, 0.34996978198602757: 1, 0.34988049416660377: 1, 0.34987551352082863: 1, 0.3498627060744674: 1, 0.34949086564694687: 1, 0.34944864791022351: 1, 0.34941171044757408: 1, 0.34940825688370397: 1, 0.34937301481963257: 1, 0.34936040897348725: 1, 0.34927344358808016: 1, 0.34926622307985916: 1, 0.34904977318760189: 1, 0.34893584175968012: 1, 0.34893471681361288: 1, 0.34876130776260339: 1, 0.34873335111376824: 1, 0.34869498491191919: 1, 0.34863229633689563: 1, 0.34862732386260326: 1, 0.34862113635195247: 1, 0.34858007930644402: 1, 0.34856696299776713: 1, 0.34853174270138737: 1, 0.34849859500668001: 1, 0.34847679641335066: 1, 0.34846455811764498: 1, 0.34845464191792724: 1, 0.34844414024766723: 1, 0.34842832185470529: 1, 0.34832644744911834: 1, 0.34830024029782264: 1, 0.34826094315753547: 1, 0.34824407844596855: 1, 0.34808575554039972: 1, 0.34797027486726068: 1, 0.34794004603638573: 1, 0.34791402731632409: 1, 0.34791298414706229: 1, 0.34789647663517265: 1, 0.34786700150930944: 1, 0.34784399866206728: 1, 0.34784059957475866: 1, 0.34780549444965164: 1, 0.34777404599995848: 1, 0.34766863618864718: 1, 0.34765339962122765: 1, 0.34763926625595243: 1, 0.34757764208088821: 1, 0.34749420903667771: 1, 0.34748749308323768: 1, 0.3474863410691823: 1, 0.34742977463664665: 1, 0.3473583070593817: 1, 0.34734912963895376: 1, 0.34733781048591156: 1, 0.34732176763008588: 1, 0.34732083150182769: 1, 0.34731773632947138: 1, 0.34724760950944472: 1, 0.34711577774368341: 1, 0.34709158762486098: 1, 0.34692987406505982: 1, 0.34689484303872126: 1, 0.34684659708475474: 1, 0.34684422005221477: 1, 0.34681155208944697: 1, 0.34673835390059038: 1, 0.34667347761751094: 1, 0.34655328288600845: 1, 0.34652625035355078: 1, 0.34652017104804195: 1, 0.34651139944197756: 1, 0.34647188750549535: 1, 0.3464700304089855: 1, 0.34627639108266028: 1, 0.34615167724054702: 1, 0.34614514509637995: 1, 0.34610807999212234: 1, 0.34604624237523035: 1, 0.34598695878803731: 1, 0.34598586805779863: 1, 0.34596560479168947: 1, 0.34586978882432556: 1, 0.34581870898802269: 1, 0.34577243031421301: 1, 0.34570655178081799: 1, 0.34567071898566004: 1, 0.3456582481116422: 1, 0.34559611391924849: 1, 0.3455767172737752: 1, 0.34555231826290023: 1, 0.3454949076095149: 1, 0.3453906026721002: 1, 0.34531855432845865: 1, 0.34527518378075006: 1, 0.34525945491029775: 1, 0.34523565709693843: 1, 0.34519539728780979: 1, 0.34516817778700215: 1, 0.34515909031672043: 1, 0.34514657533597332: 1, 0.34512175410395873: 1, 0.34509225557294004: 1, 0.34496447967493993: 1, 0.34493766387393959: 1, 0.34493172272581635: 1, 0.34492112512756479: 1, 0.34490517051021696: 1, 0.34452877099662038: 1, 0.34451900403549673: 1, 0.34448777284037274: 1, 0.344484614110177: 1, 0.34440796528106304: 1, 0.34439012181422241: 1, 0.34436391797218585: 1, 0.34426456479547229: 1, 0.3441351032966386: 1, 0.34411506751539023: 1, 0.34409278184157938: 1, 0.34398308391626314: 1, 0.34395533394783012: 1, 0.34395418430260155: 1, 0.34390783241963602: 1, 0.34382360709460935: 1, 0.34382252220680887: 1, 0.34376681565721651: 1, 0.34374286735630655: 1, 0.3437165243449864: 1, 0.34366967552136457: 1, 0.34360383767526859: 1, 0.34352555237248045: 1, 0.34334639958779567: 1, 0.34334359692336924: 1, 0.3433217324020777: 1, 0.34331330102361607: 1, 0.34329031327445991: 1, 0.34328891672198103: 1, 0.34325484737077427: 1, 0.34324191078259791: 1, 0.3431765866980101: 1, 0.3431430925897419: 1, 0.34305826904059256: 1, 0.34304249946499032: 1, 0.34297912019621757: 1, 0.34294997056267595: 1, 0.34294640509317093: 1, 0.3429148884001309: 1, 0.34290542992686218: 1, 0.34287794799586574: 1, 0.34287349307776127: 1, 0.34278257543285601: 1, 0.34276353527099906: 1, 0.34248735332770047: 1, 0.34243460807471243: 1, 0.34241507613282673: 1, 0.3423828219695832: 1, 0.34237473981356104: 1, 0.34235290737182489: 1, 0.34233057002411571: 1, 0.34229702163103704: 1, 0.34228371257149959: 1, 0.34227647207078488: 1, 0.34222928408664727: 1, 0.34220142918459107: 1, 0.34215761015857216: 1, 0.34199622061633383: 1, 0.34190996827472409: 1, 0.34181714403361635: 1, 0.34179231729612319: 1, 0.3417333625422378: 1, 0.34170850009966997: 1, 0.34165337824823544: 1, 0.34165147139629654: 1, 0.34154012369302711: 1, 0.34143731633599028: 1, 0.34137313915258249: 1, 0.34136590126643018: 1, 0.34129555817224799: 1, 0.34121899066765005: 1, 0.34118208354327217: 1, 0.3409969193720328: 1, 0.34099620950415277: 1, 0.34097076997586789: 1, 0.34083836286971242: 1, 0.34079735130506006: 1, 0.34074685835729701: 1, 0.34070859661487018: 1, 0.34067436999141043: 1, 0.34062650029769154: 1, 0.34061888004038315: 1, 0.34054944668491277: 1, 0.34054854540338719: 1, 0.3404733167281967: 1, 0.34046660419100716: 1, 0.34039310671558559: 1, 0.34026704893519522: 1, 0.34017897850759393: 1, 0.34016276990551114: 1, 0.34009627015301847: 1, 0.34009494834907339: 1, 0.3400800600205513: 1, 0.34005743033502095: 1, 0.34005642034638373: 1, 0.34004202281844648: 1, 0.34002400670257715: 1, 0.33996192243501255: 1, 0.33988823268331686: 1, 0.33987555879780124: 1, 0.33987069188518171: 1, 0.3397520445310383: 1, 0.33961359680540515: 1, 0.33954351028119473: 1, 0.33952585499460797: 1, 0.33952016164253335: 1, 0.33947147487211793: 1, 0.33941661200810885: 1, 0.33937730236533481: 1, 0.33937022124446919: 1, 0.33931183975037066: 1, 0.33930391574184288: 1, 0.33927280259468523: 1, 0.33924517323779263: 1, 0.33924154789102129: 1, 0.33913257292103266: 1, 0.33911622197595703: 1, 0.33901482490054574: 1, 0.33891646895828154: 1, 0.33891554207581798: 1, 0.3387695318858881: 1, 0.33875107327947335: 1, 0.33867634399757057: 1, 0.33866647512509401: 1, 0.33858919022430245: 1, 0.3385828606986877: 1, 0.33856279177352139: 1, 0.33850792740340058: 1, 0.33850252863555197: 1, 0.33843772597208749: 1, 0.33843716635671894: 1, 0.33836539528490817: 1, 0.33817782824747905: 1, 0.33817263929771024: 1, 0.33813292540047807: 1, 0.33798238051623281: 1, 0.33793283555468179: 1, 0.33793153319575403: 1, 0.33776900450272052: 1, 0.33760671887090621: 1, 0.33755371208203128: 1, 0.33748983532546828: 1, 0.33748916314460475: 1, 0.33747373656533236: 1, 0.33746986093816161: 1, 0.33740701019015695: 1, 0.33739545062913817: 1, 0.33738669866912252: 1, 0.33736145812660739: 1, 0.33730783114190577: 1, 0.33726955494742683: 1, 0.33725430790253491: 1, 0.3372330919997229: 1, 0.33719155540075707: 1, 0.33717674589347657: 1, 0.33716295473709285: 1, 0.33697315960954377: 1, 0.33694064094347725: 1, 0.33684437166693987: 1, 0.33666741584788845: 1, 0.33666504203749115: 1, 0.33663123208667711: 1, 0.33659905494061743: 1, 0.33652371297404543: 1, 0.33650804122484707: 1, 0.33648938493785624: 1, 0.33645371800345236: 1, 0.33639800338932763: 1, 0.33638325023478288: 1, 0.33630401090345768: 1, 0.33629034171742811: 1, 0.33626968275024882: 1, 0.33624397046828641: 1, 0.33623291544778539: 1, 0.3362112991872992: 1, 0.33615456483317918: 1, 0.33611891752684048: 1, 0.33602330893223231: 1, 0.33595669524916466: 1, 0.33594620604486586: 1, 0.33594524350720051: 1, 0.33591347686697554: 1, 0.335847003512528: 1, 0.33577131544701505: 1, 0.33573573164425413: 1, 0.33568892986941179: 1, 0.33567927331627428: 1, 0.33562537911707757: 1, 0.33561356684267479: 1, 0.33553842358653491: 1, 0.33549463882465624: 1, 0.33537883778790561: 1, 0.33537524452486278: 1, 0.33536816860266083: 1, 0.33535479115984629: 1, 0.3352966680842237: 1, 0.335271751650489: 1, 0.33525970842952957: 1, 0.33522519785126437: 1, 0.33520776025336024: 1, 0.33517502068495159: 1, 0.33495537760488214: 1, 0.3349535959585459: 1, 0.33494702188259617: 1, 0.33486965576139754: 1, 0.3348470576293191: 1, 0.33482792948510559: 1, 0.33482195056824587: 1, 0.33481879613035082: 1, 0.3347928482512319: 1, 0.33469776913777366: 1, 0.33465601279246454: 1, 0.33461187156061828: 1, 0.33460853762418064: 1, 0.33446538651063046: 1, 0.3343991852552492: 1, 0.33436781614899858: 1, 0.33432321352291589: 1, 0.33416639442423562: 1, 0.33412587802590837: 1, 0.33408237029939447: 1, 0.33402732664218993: 1, 0.33390299925670652: 1, 0.33389866199309981: 1, 0.33381450205092422: 1, 0.33381052533510408: 1, 0.33378744796797927: 1, 0.33366703220402122: 1, 0.33364723354048742: 1, 0.33362201490917959: 1, 0.3335433904809702: 1, 0.33353498004444193: 1, 0.33350012491138886: 1, 0.33339811284070298: 1, 0.33339117552768499: 1, 0.33336687193626402: 1, 0.3333471672596906: 1, 0.3333025552208993: 1, 0.33318745338640809: 1, 0.33318354791511479: 1, 0.333143776670972: 1, 0.33300001339503482: 1, 0.33296839478696366: 1, 0.33295773712561511: 1, 0.3329203035808434: 1, 0.33290193836871917: 1, 0.33287107430165896: 1, 0.33286900526571611: 1, 0.33282807742001425: 1, 0.33282505759737196: 1, 0.33278894810054915: 1, 0.33272083863625046: 1, 0.33269524823284513: 1, 0.33269256363954514: 1, 0.33268525898470119: 1, 0.33265568168029108: 1, 0.33265076898511436: 1, 0.33260060095826099: 1, 0.33250619916473584: 1, 0.33249480565464923: 1, 0.3324269632573803: 1, 0.33236609840937725: 1, 0.33234026169347086: 1, 0.33223162552621238: 1, 0.33220359356565538: 1, 0.33208215182337436: 1, 0.33202474744294264: 1, 0.33192492900545112: 1, 0.33183489759762946: 1, 0.33182081328124652: 1, 0.33180129635674555: 1, 0.33170842034911457: 1, 0.33168563234935128: 1, 0.33168122275019118: 1, 0.33166995228619633: 1, 0.33160875363740699: 1, 0.33157907088268257: 1, 0.33151438321497795: 1, 0.33149371446696835: 1, 0.33140957697461548: 1, 0.33138093800594848: 1, 0.33137633071572892: 1, 0.3313676379598065: 1, 0.33130559742922938: 1, 0.33121464357077357: 1, 0.33117494851622914: 1, 0.33115294786995592: 1, 0.33112639497388258: 1, 0.33112608895653067: 1, 0.33109199754921093: 1, 0.33106979526255764: 1, 0.33103435930777286: 1, 0.33097144302453801: 1, 0.33089241449057749: 1, 0.33087323647960704: 1, 0.33087198711293353: 1, 0.33082615285238171: 1, 0.3308064636867421: 1, 0.33075904646691595: 1, 0.33072069216690125: 1, 0.33067938264447649: 1, 0.33048394260662917: 1, 0.33045563790917032: 1, 0.3303402007292931: 1, 0.33022166100716721: 1, 0.33019837407812752: 1, 0.33019291092768621: 1, 0.33015531766738093: 1, 0.33014257692203974: 1, 0.33012437222903079: 1, 0.33010767932121787: 1, 0.33009561270889182: 1, 0.33003568479633716: 1, 0.3299987388712094: 1, 0.32996170878842135: 1, 0.32994148381853633: 1, 0.3299331518449185: 1, 0.32985074059598884: 1, 0.32976432057463007: 1, 0.32972228131945702: 1, 0.32971816422344385: 1, 0.32967037440469377: 1, 0.32961761518415272: 1, 0.329501791373428: 1, 0.32948099249313539: 1, 0.32943637259785385: 1, 0.32931107968318069: 1, 0.32929038408915307: 1, 0.32926032794737747: 1, 0.32920870481862624: 1, 0.32914216283874026: 1, 0.32912991284846826: 1, 0.32910355933128294: 1, 0.32898289551515103: 1, 0.32891177901489921: 1, 0.32890985055792016: 1, 0.32874212343813081: 1, 0.32873978961913125: 1, 0.32872736783481121: 1, 0.3287041075773503: 1, 0.32867724663680581: 1, 0.32866541165985552: 1, 0.32862463857506141: 1, 0.32859841997141837: 1, 0.32856672932615666: 1, 0.32855302288702321: 1, 0.32855005315414687: 1, 0.32849668890214734: 1, 0.32824398497230767: 1, 0.3282197227685798: 1, 0.32817057680240935: 1, 0.32816393156460583: 1, 0.32802778795245108: 1, 0.32802133232342934: 1, 0.32794473174473693: 1, 0.32788966544883219: 1, 0.32783149480941487: 1, 0.32781611893918761: 1, 0.32770460272265278: 1, 0.32765871844649219: 1, 0.32763025430048925: 1, 0.32758036115164024: 1, 0.32753666795746916: 1, 0.32752474178255064: 1, 0.32732918008822698: 1, 0.32724868525023276: 1, 0.32721069481815351: 1, 0.32719863944066768: 1, 0.32719634367658368: 1, 0.32719426654178962: 1, 0.32714151515840856: 1, 0.32712588872698251: 1, 0.32712310701504504: 1, 0.32708261042047859: 1, 0.32707706929196523: 1, 0.32700671449126634: 1, 0.32690241185084179: 1, 0.32687886633026747: 1, 0.32685394294206566: 1, 0.3267446605624465: 1, 0.32673417371490776: 1, 0.32672229752109505: 1, 0.32668970309494028: 1, 0.32663027100622438: 1, 0.32660551928896275: 1, 0.3265511820508652: 1, 0.32650719720907706: 1, 0.32647467294744753: 1, 0.32642954406405861: 1, 0.32639512144204086: 1, 0.32636238928048145: 1, 0.32632356426602138: 1, 0.32631977524196537: 1, 0.32629099568731934: 1, 0.32623173092978575: 1, 0.32622886158024994: 1, 0.32620109060357372: 1, 0.32619071342767503: 1, 0.32618048211483541: 1, 0.32616948312122263: 1, 0.32612339475454222: 1, 0.32606415300161234: 1, 0.32604614550475769: 1, 0.32603074341230198: 1, 0.3260148570246072: 1, 0.32599219391677753: 1, 0.32597425613444847: 1, 0.32594651229322585: 1, 0.32591522646228882: 1, 0.32587721406753484: 1, 0.32579371263539159: 1, 0.32574255240902156: 1, 0.32562405165809799: 1, 0.32549655481764433: 1, 0.32548108347437643: 1, 0.32547037925307137: 1, 0.32545168995718488: 1, 0.32543608897197834: 1, 0.32540399450686847: 1, 0.32540198108146007: 1, 0.32540141942582018: 1, 0.32528486270829293: 1, 0.3252765812825133: 1, 0.32527607846726841: 1, 0.32516604817656747: 1, 0.32515576716454681: 1, 0.32509698300002016: 1, 0.32507162324638827: 1, 0.32505451873358404: 1, 0.32505282144340314: 1, 0.32504591542290751: 1, 0.32496265544197628: 1, 0.32495927355278775: 1, 0.32493965619157411: 1, 0.32475919981325613: 1, 0.32474958587123165: 1, 0.32472701884485355: 1, 0.3246499998755793: 1, 0.32459987141835778: 1, 0.32459669632569615: 1, 0.32459028248941157: 1, 0.3245531866435728: 1, 0.32455246560282741: 1, 0.32450755642644863: 1, 0.32447946711734937: 1, 0.32435662737709053: 1, 0.32430637338416912: 1, 0.32429073717668133: 1, 0.32418229621787942: 1, 0.32414239693199132: 1, 0.3241362216899682: 1, 0.32412329818070074: 1, 0.32399991559658087: 1, 0.32397376714514298: 1, 0.3239602830945898: 1, 0.3238954792545391: 1, 0.32387676615030159: 1, 0.32379476463127499: 1, 0.32377537860602912: 1, 0.32377103635964238: 1, 0.32371692607691116: 1, 0.32370475842533186: 1, 0.32370011777913527: 1, 0.32369796257415545: 1, 0.3236875608234856: 1, 0.32368136111629631: 1, 0.32364227067156398: 1, 0.32360163769041667: 1, 0.32354054690144335: 1, 0.32347305504540785: 1, 0.32344592547445417: 1, 0.32342428525406719: 1, 0.32335800118012686: 1, 0.32331172361088734: 1, 0.32330422486094845: 1, 0.32327408027416327: 1, 0.32325013860726581: 1, 0.32321090623187171: 1, 0.32318774457235672: 1, 0.32314944867668627: 1, 0.32313144053318954: 1, 0.32312761567926096: 1, 0.32305362352587863: 1, 0.32301432280985237: 1, 0.32293890067578984: 1, 0.32289820883794246: 1, 0.32284648194833959: 1, 0.32280823576828704: 1, 0.32279718999291379: 1, 0.32276878290405531: 1, 0.32276778911742471: 1, 0.32275797168081566: 1, 0.32275591094808859: 1, 0.32268126078865045: 1, 0.32267261318538604: 1, 0.3226638916319573: 1, 0.32266012754674167: 1, 0.3226540449671868: 1, 0.32257017877130789: 1, 0.32248222984789165: 1, 0.32240471817557631: 1, 0.32223218722737529: 1, 0.32209458586492401: 1, 0.32195420804977809: 1, 0.32185750518177003: 1, 0.32181559528034553: 1, 0.32181545879480633: 1, 0.32177070917233297: 1, 0.32176040803724482: 1, 0.32173973026211522: 1, 0.32155953953445598: 1, 0.32150716728107587: 1, 0.32137030272526257: 1, 0.32133035219748551: 1, 0.32132128148591932: 1, 0.32125116697851397: 1, 0.32124223898063753: 1, 0.32121342978820466: 1, 0.32116033992546916: 1, 0.32113654995174967: 1, 0.32112438579804875: 1, 0.32111386222180927: 1, 0.32097675629926337: 1, 0.32096872356380651: 1, 0.3209247170772499: 1, 0.32089022651447213: 1, 0.32080681951698725: 1, 0.32080294001653059: 1, 0.32077527283555818: 1, 0.32075457084109743: 1, 0.32064806621472186: 1, 0.32059881522286354: 1, 0.32053568304781288: 1, 0.32051333492153289: 1, 0.32051311659831261: 1, 0.32043971551146672: 1, 0.32029870422611634: 1, 0.32028930677337403: 1, 0.3202334321442471: 1, 0.32007171796345329: 1, 0.32004046459751195: 1, 0.32003003546149883: 1, 0.31994484516086813: 1, 0.31993643079894724: 1, 0.31991766391271509: 1, 0.31988950577496028: 1, 0.3198861748613705: 1, 0.31988021050081789: 1, 0.31986015453298317: 1, 0.31985468069313244: 1, 0.31975833342625398: 1, 0.31971652287743002: 1, 0.31969717826157823: 1, 0.31961580890511748: 1, 0.3196066790770854: 1, 0.31958710529276613: 1, 0.31955851358242499: 1, 0.31954878485792976: 1, 0.31951321071324468: 1, 0.31949828441941275: 1, 0.31931231862426113: 1, 0.31927698617546568: 1, 0.31926274119344106: 1, 0.31918911786321646: 1, 0.31913497183930883: 1, 0.31912565267216053: 1, 0.31907499615035412: 1, 0.31904413258441383: 1, 0.31891568975723394: 1, 0.31885592243507621: 1, 0.31881038376713106: 1, 0.31873424798358763: 1, 0.3186926353411077: 1, 0.31868282767187683: 1, 0.3186738859442525: 1, 0.31865373942760689: 1, 0.3185965179020962: 1, 0.31851577739502202: 1, 0.3183574453611614: 1, 0.31830787820538392: 1, 0.31828794501242358: 1, 0.31828771054557259: 1, 0.31824464738176467: 1, 0.3182363279994051: 1, 0.31823398943638187: 1, 0.31818185217121786: 1, 0.31810935584001948: 1, 0.31807651823542721: 1, 0.31798779951604184: 1, 0.31788190782115783: 1, 0.31787719284723659: 1, 0.3178719189665154: 1, 0.31785654243326428: 1, 0.31779723505634289: 1, 0.31773067575220154: 1, 0.31769438739344413: 1, 0.31767567714313322: 1, 0.31765622783820269: 1, 0.31762829759384337: 1, 0.31760341794947988: 1, 0.31758741774970722: 1, 0.31757673235232808: 1, 0.31755805619970795: 1, 0.31752345337695698: 1, 0.31744921035328749: 1, 0.3174358382001059: 1, 0.31742936965586793: 1, 0.3173712287453237: 1, 0.3173168464903548: 1, 0.31730058925787624: 1, 0.31712756978145751: 1, 0.31707945547447192: 1, 0.31707715294449346: 1, 0.31702520754689367: 1, 0.31700614741565331: 1, 0.31700006976065082: 1, 0.31697420616530564: 1, 0.3169414715803005: 1, 0.31693965054847084: 1, 0.31689035539772958: 1, 0.31680673789408309: 1, 0.31679730762893127: 1, 0.31679351341486611: 1, 0.31678737945708441: 1, 0.31671574914521322: 1, 0.31669021026033761: 1, 0.31645059435630413: 1, 0.3163897604345951: 1, 0.31638527749422896: 1, 0.31638107559913564: 1, 0.31635263415152237: 1, 0.31634382448369858: 1, 0.31634328515628307: 1, 0.31629749104499366: 1, 0.31629535277299459: 1, 0.31629282661667441: 1, 0.31620323824355062: 1, 0.31618969368000804: 1, 0.31618290399352533: 1, 0.31615168902261509: 1, 0.31596400943588299: 1, 0.31593099226677201: 1, 0.3158968641015234: 1, 0.31588914001957835: 1, 0.31588878750736604: 1, 0.31581523588814997: 1, 0.31579127256353345: 1, 0.31566628312915024: 1, 0.31561129015104084: 1, 0.31558468050853627: 1, 0.31556474281287444: 1, 0.31553068264727352: 1, 0.31550733715144075: 1, 0.31550532576628121: 1, 0.31545219473078639: 1, 0.31541506967900435: 1, 0.31538100498922966: 1, 0.3153723491522174: 1, 0.31534469457323749: 1, 0.31527121652511692: 1, 0.31521848724392215: 1, 0.31520394382900341: 1, 0.3151846972107234: 1, 0.31516141897825478: 1, 0.31507578040364054: 1, 0.31503476513299095: 1, 0.31499686021651507: 1, 0.31493651378353577: 1, 0.31479680952241595: 1, 0.31477129729436792: 1, 0.31466407849460848: 1, 0.31460361535248216: 1, 0.31454192283539362: 1, 0.31452121365478874: 1, 0.31447158053668661: 1, 0.31443690239491207: 1, 0.31438921366390682: 1, 0.31435426612192496: 1, 0.31433815722238878: 1, 0.31427602526334369: 1, 0.314167293855459: 1, 0.31409482578984682: 1, 0.31403066469790153: 1, 0.3139562505282526: 1, 0.31385236287000851: 1, 0.31383229038000371: 1, 0.31375588090102996: 1, 0.31358505095173078: 1, 0.31342829404597394: 1, 0.31337849622687919: 1, 0.31336829147517375: 1, 0.31334209812892844: 1, 0.31334111340879262: 1, 0.31331793724467411: 1, 0.31326862769978842: 1, 0.31326073163425655: 1, 0.31322788930157919: 1, 0.31320721789139827: 1, 0.31314712103732445: 1, 0.31313153140085226: 1, 0.31312736252248274: 1, 0.31306993518836101: 1, 0.31306810923497247: 1, 0.31298299597638596: 1, 0.31296389631324395: 1, 0.31292606227960812: 1, 0.31288892986366174: 1, 0.31283326988751903: 1, 0.31273443320589506: 1, 0.31271365679705915: 1, 0.31263255901814635: 1, 0.31260484934965072: 1, 0.31246762003170359: 1, 0.31244752185608304: 1, 0.3123574830964736: 1, 0.3123545626982282: 1, 0.31223695519170819: 1, 0.31223469135562415: 1, 0.31221143350193215: 1, 0.31218484777361988: 1, 0.31210593995328079: 1, 0.31206782222788787: 1, 0.31206169607555917: 1, 0.31199497740410792: 1, 0.31197734853187598: 1, 0.31196184588156467: 1, 0.31194666493521894: 1, 0.31189227299353073: 1, 0.31183822070046119: 1, 0.31183652382309446: 1, 0.31182294367905888: 1, 0.31181257790364103: 1, 0.31169134457259695: 1, 0.31167798701239824: 1, 0.31162843199271917: 1, 0.31145621633616383: 1, 0.31145611582185417: 1, 0.31145469298226497: 1, 0.31134906313251454: 1, 0.31133590417685314: 1, 0.31129765059610792: 1, 0.31115376691291052: 1, 0.31114731622551656: 1, 0.31113675065088658: 1, 0.31111083180193227: 1, 0.31109607242034021: 1, 0.31108015963654245: 1, 0.3110555849197848: 1, 0.31095551164178431: 1, 0.31091693621320654: 1, 0.31089701565845096: 1, 0.31081307375508943: 1, 0.3107017236836927: 1, 0.31043674653706094: 1, 0.31035610408484815: 1, 0.31035304595664531: 1, 0.31035196957407646: 1, 0.31029718300559994: 1, 0.3102874692081195: 1, 0.31025514431948481: 1, 0.31023010670542056: 1, 0.31016233671197085: 1, 0.31006669462531378: 1, 0.30999421273118155: 1, 0.30999003740862963: 1, 0.30990091915599227: 1, 0.30980510132051831: 1, 0.30980161117895472: 1, 0.30976195935292783: 1, 0.30975481893475337: 1, 0.3097449220594044: 1, 0.30970161211268715: 1, 0.30969870969619306: 1, 0.30969720870802775: 1, 0.30969584977090986: 1, 0.30966071670032208: 1, 0.30964782055129125: 1, 0.30964108262167606: 1, 0.30963028873887882: 1, 0.30961548286998197: 1, 0.30954777931400485: 1, 0.30953903014180173: 1, 0.30944047357971638: 1, 0.3093787894855346: 1, 0.30936032439568972: 1, 0.30935464301965937: 1, 0.30932178749092554: 1, 0.30931244081050363: 1, 0.30929596771997553: 1, 0.30929145780219058: 1, 0.30923400629795156: 1, 0.30922290729073432: 1, 0.3091711526361467: 1, 0.30917090905886996: 1, 0.30916154251965711: 1, 0.3091183554486141: 1, 0.30905741032056122: 1, 0.30900925979650379: 1, 0.30900473915746113: 1, 0.30892945632896757: 1, 0.30875413083709469: 1, 0.30870979601833098: 1, 0.30869350206469592: 1, 0.30863693763395306: 1, 0.3086303596999791: 1, 0.30856390171849207: 1, 0.30853488027688275: 1, 0.30852727979465649: 1, 0.30847981671631458: 1, 0.3084188179608392: 1, 0.30837640982597431: 1, 0.308268196532063: 1, 0.30824421224155218: 1, 0.30787700191724809: 1, 0.30786495348681397: 1, 0.30782640728167315: 1, 0.30762182941057736: 1, 0.307617287110307: 1, 0.30760962324764596: 1, 0.30760636242092543: 1, 0.30758608196047832: 1, 0.30758050507105106: 1, 0.30748236541512641: 1, 0.3074118238805168: 1, 0.30734856877303646: 1, 0.30731139081967757: 1, 0.30727611591895804: 1, 0.3072302827936278: 1, 0.30720214345627428: 1, 0.30715216547956353: 1, 0.30707549040322618: 1, 0.3070744965747958: 1, 0.30705002547957816: 1, 0.30703417076740747: 1, 0.30699918598112369: 1, 0.30699776902136111: 1, 0.30698597799949678: 1, 0.30691290083691763: 1, 0.30690276558176532: 1, 0.3068721717600239: 1, 0.30685931932149074: 1, 0.3068364851006074: 1, 0.30682935218078589: 1, 0.30681934492474267: 1, 0.30680610898553606: 1, 0.30680366345147381: 1, 0.3066991687844608: 1, 0.30667523654389706: 1, 0.30665703762591556: 1, 0.30663850023013711: 1, 0.30658342249295562: 1, 0.3064810843539611: 1, 0.30645080338975195: 1, 0.30641740999699152: 1, 0.30640942161792295: 1, 0.30640845165028935: 1, 0.30638551427759203: 1, 0.30638478386054396: 1, 0.30632543774217286: 1, 0.30627485834311297: 1, 0.30616343204864205: 1, 0.3061421904941683: 1, 0.30614180146667175: 1, 0.30612959438827836: 1, 0.3061224145287349: 1, 0.3060937042583825: 1, 0.30605496651056641: 1, 0.30592454520080609: 1, 0.30588791755609251: 1, 0.30587456282571063: 1, 0.30583633054259851: 1, 0.30582171510083045: 1, 0.30572390619420042: 1, 0.30572357007701118: 1, 0.30562043234924929: 1, 0.30561121750334341: 1, 0.3055847429162124: 1, 0.30553150711414495: 1, 0.30549467928975171: 1, 0.30545432819561796: 1, 0.30541536546923131: 1, 0.30537301707927517: 1, 0.3053495521474664: 1, 0.30523581256377424: 1, 0.30521515812711408: 1, 0.30518444940114026: 1, 0.30514763528768596: 1, 0.30513729117883936: 1, 0.30507119557881562: 1, 0.30501730721110004: 1, 0.30492660805227839: 1, 0.30487106937957903: 1, 0.30484976785558626: 1, 0.3048278221108397: 1, 0.30475805183300603: 1, 0.30475033859616368: 1, 0.3047309593278853: 1, 0.3047256975763793: 1, 0.30468243008385837: 1, 0.30465894139800476: 1, 0.3046095394401287: 1, 0.30455744301246135: 1, 0.30455441491895913: 1, 0.30454638221097663: 1, 0.30454161343244512: 1, 0.3044862548892292: 1, 0.30446507834818354: 1, 0.30446410024547899: 1, 0.30446276888534296: 1, 0.30445494394695333: 1, 0.30443488289210496: 1, 0.30437759192801644: 1, 0.30435824210285423: 1, 0.30434131088063787: 1, 0.30433929219826372: 1, 0.3043189451345561: 1, 0.30431640355119965: 1, 0.30428145027727543: 1, 0.30421869054362821: 1, 0.30413368280258501: 1, 0.30412540935555449: 1, 0.30411425002292874: 1, 0.30408254786854461: 1, 0.30403882166181462: 1, 0.30402814060776928: 1, 0.30402190454639594: 1, 0.30380022182494765: 1, 0.30375086351869596: 1, 0.30374253430874959: 1, 0.30368998570245109: 1, 0.30368929225507851: 1, 0.30368596753449639: 1, 0.3036817489209061: 1, 0.30357567797327362: 1, 0.30353670547202127: 1, 0.30352088402387845: 1, 0.30343662710098468: 1, 0.30342533787591985: 1, 0.30342122389313914: 1, 0.30337688458050033: 1, 0.30335723188992619: 1, 0.30333697865774301: 1, 0.30328362084539051: 1, 0.30325615933092537: 1, 0.3031870489451845: 1, 0.30312416060697156: 1, 0.30310215821394326: 1, 0.30309720035375437: 1, 0.30306928710705228: 1, 0.30296105260803852: 1, 0.30294963801964164: 1, 0.30291707799886952: 1, 0.30290689409307886: 1, 0.30289902496218324: 1, 0.30287708081622: 1, 0.30284388357163666: 1, 0.30283284350945233: 1, 0.3028235450098874: 1, 0.30271985784370226: 1, 0.30263633193685857: 1, 0.30249445191637597: 1, 0.30241867576363896: 1, 0.30235736036883043: 1, 0.30234421918891285: 1, 0.30226359323608332: 1, 0.30216288806104086: 1, 0.30214342973549113: 1, 0.30208448694056511: 1, 0.30189739129563076: 1, 0.30189201753257311: 1, 0.30182241368752971: 1, 0.30173444455698439: 1, 0.30171051763853413: 1, 0.30170054870778773: 1, 0.30165967536700172: 1, 0.30153936767030681: 1, 0.30151147293076236: 1, 0.30144936056244492: 1, 0.30131283874028453: 1, 0.30130479834066742: 1, 0.30128221577428982: 1, 0.30126130196399259: 1, 0.30125326584526485: 1, 0.30088213802273528: 1, 0.30087100097677488: 1, 0.30077015576507005: 1, 0.30067007529154455: 1, 0.30062056828599953: 1, 0.30058850366179796: 1, 0.30054658833273418: 1, 0.30044872581448817: 1, 0.30036632401042535: 1, 0.30036587656330754: 1, 0.30031799850648322: 1, 0.30023732693224392: 1, 0.30022607895934994: 1, 0.30020642771130612: 1, 0.30016629848601944: 1, 0.30004697270423891: 1, 0.30004205368565756: 1, 0.30003175967303003: 1, 0.29997018828464705: 1, 0.2999396813340634: 1, 0.29988989380367487: 1, 0.29986295832803861: 1, 0.29986279673947713: 1, 0.29984109311339541: 1, 0.29977964484458663: 1, 0.29977672888716989: 1, 0.29974291821174054: 1, 0.2997025205446977: 1, 0.29969307005845802: 1, 0.2996162457102351: 1, 0.29960078712577914: 1, 0.29953692060619735: 1, 0.2995007027094822: 1, 0.2994780928053396: 1, 0.29945832118291199: 1, 0.29942685346654052: 1, 0.29939312000249041: 1, 0.29933022027644901: 1, 0.29927726697039769: 1, 0.29915311100276937: 1, 0.29903416381648235: 1, 0.29901499554304722: 1, 0.29898796596722282: 1, 0.2989664770244394: 1, 0.29879159212049355: 1, 0.29869627992097242: 1, 0.29864108834375097: 1, 0.29861799422862267: 1, 0.29860203305738647: 1, 0.29853604257533001: 1, 0.29848955533600435: 1, 0.29841391192483502: 1, 0.29841053122078276: 1, 0.29836624123173977: 1, 0.29832119187398698: 1, 0.29829673002503204: 1, 0.29825863369536609: 1, 0.29825637652136433: 1, 0.29818909543899214: 1, 0.29815102494445983: 1, 0.29814193433746256: 1, 0.29810000639623113: 1, 0.29806611489286605: 1, 0.29798720332489598: 1, 0.2979855803690763: 1, 0.29797404291970325: 1, 0.2979547257119794: 1, 0.29793177498217344: 1, 0.29789381754635291: 1, 0.29770239117816588: 1, 0.29766864140787158: 1, 0.2976595249404127: 1, 0.29753532038772951: 1, 0.29753094849867906: 1, 0.29746922275562943: 1, 0.29737712900055191: 1, 0.29730644656459865: 1, 0.29727080009228568: 1, 0.29724042594570277: 1, 0.29723512454581763: 1, 0.29718800031708847: 1, 0.29716663067538168: 1, 0.29711009429983248: 1, 0.29705216567876352: 1, 0.29704725606634808: 1, 0.29694987634013897: 1, 0.29689033328763809: 1, 0.29687830640784202: 1, 0.29683016966080017: 1, 0.29680815243114567: 1, 0.29677755716808296: 1, 0.2967407672420882: 1, 0.29669826847349262: 1, 0.29669241782685019: 1, 0.29664719201456685: 1, 0.29664067178085424: 1, 0.29658669957970868: 1, 0.29658255830417185: 1, 0.29649800024278772: 1, 0.29642635952228918: 1, 0.29636780565931192: 1, 0.29636665938496143: 1, 0.29634858741320569: 1, 0.29632627895750069: 1, 0.29625105033610721: 1, 0.29620388389767438: 1, 0.29606372137874848: 1, 0.29605236530466755: 1, 0.29596594974952622: 1, 0.29567370796515163: 1, 0.29563920459735449: 1, 0.29553908702017734: 1, 0.29553704128085273: 1, 0.29548979255611629: 1, 0.29548654215016484: 1, 0.29548352332217093: 1, 0.29547531525656379: 1, 0.29546673092085241: 1, 0.29543832162775097: 1, 0.29542104102232292: 1, 0.29537549317063078: 1, 0.29533537778004232: 1, 0.29531434521132582: 1, 0.29519902924506691: 1, 0.29518268466891456: 1, 0.29514981046600791: 1, 0.29513375859127361: 1, 0.29512042175737702: 1, 0.29511605559819665: 1, 0.29509846638430076: 1, 0.29506537628121499: 1, 0.29505823291608274: 1, 0.29500565533995399: 1, 0.29488828390412408: 1, 0.29483601995427117: 1, 0.29479919769054819: 1, 0.29479626734936404: 1, 0.29471617373259884: 1, 0.29470653979426181: 1, 0.29468818836667604: 1, 0.29464104970512561: 1, 0.29463292609695191: 1, 0.29460661284834222: 1, 0.2945137246394523: 1, 0.2944717443602306: 1, 0.29446830504487509: 1, 0.29444440215468337: 1, 0.29431785270718719: 1, 0.29427841014786099: 1, 0.29423130202561792: 1, 0.2942079493054135: 1, 0.29417688436083927: 1, 0.29412848230096988: 1, 0.29410723641860592: 1, 0.29407666352662842: 1, 0.29407396505594718: 1, 0.29407366236209753: 1, 0.29405409971895669: 1, 0.29404376216446365: 1, 0.2940308600493699: 1, 0.29395819715378524: 1, 0.29393062821635629: 1, 0.29392980980315708: 1, 0.29384968070877215: 1, 0.29376368110384288: 1, 0.29369656957189855: 1, 0.2935330156839262: 1, 0.29345322364749155: 1, 0.29335511576620649: 1, 0.29327262968537932: 1, 0.29322026659110878: 1, 0.29321136695908856: 1, 0.29320001940377677: 1, 0.29317669027987248: 1, 0.29316726918240948: 1, 0.2931389399970894: 1, 0.29305067869479345: 1, 0.29304882786944719: 1, 0.29302774906460144: 1, 0.29298264754814429: 1, 0.29292831568992411: 1, 0.29292122508242324: 1, 0.29292069146596172: 1, 0.29292037768423418: 1, 0.29284082928629956: 1, 0.29280016077456883: 1, 0.29275036034166868: 1, 0.29269599990763095: 1, 0.29259068653330378: 1, 0.2925750615203897: 1, 0.29252567229141158: 1, 0.29249887919518935: 1, 0.29248268586636939: 1, 0.29241380102953884: 1, 0.29240936292576325: 1, 0.29240890177510065: 1, 0.29236911585385: 1, 0.29232217246988829: 1, 0.2921674331730571: 1, 0.2921439828908895: 1, 0.29211447124418272: 1, 0.29209031662384316: 1, 0.29199795791108268: 1, 0.2919894113228359: 1, 0.29197642583324684: 1, 0.29196182566456974: 1, 0.29194160743232639: 1, 0.29189670031776216: 1, 0.29188046050688243: 1, 0.29187373370572367: 1, 0.29180487120642895: 1, 0.29178746460458027: 1, 0.29176786433558533: 1, 0.2917522717555045: 1, 0.29168963847852331: 1, 0.29166978528413967: 1, 0.29155368469390552: 1, 0.29149992890725396: 1, 0.29146443563086932: 1, 0.2914355351746486: 1, 0.29141599715903405: 1, 0.2914102583882775: 1, 0.2913859111924762: 1, 0.29133378333700155: 1, 0.2912867797540184: 1, 0.29126576778106295: 1, 0.29119653849968757: 1, 0.29117363909302513: 1, 0.29115049153609157: 1, 0.2911412264810222: 1, 0.29108905706613386: 1, 0.29108596856270536: 1, 0.29106192543277687: 1, 0.29096837197929776: 1, 0.29090362272760933: 1, 0.29089395816100577: 1, 0.2908777314431607: 1, 0.29084317840379798: 1, 0.29076753491736301: 1, 0.29072938195951009: 1, 0.29061884654936926: 1, 0.29057742930458341: 1, 0.29055829027930052: 1, 0.29047356780169331: 1, 0.29044877743495168: 1, 0.29040484557028862: 1, 0.29029658744258646: 1, 0.2902505153125971: 1, 0.29022676598821517: 1, 0.29019360991369836: 1, 0.29016823135592612: 1, 0.29005686412582804: 1, 0.28999242174226547: 1, 0.28999215938081924: 1, 0.28993588314934432: 1, 0.28988868499820181: 1, 0.28985296395020105: 1, 0.28973345793146066: 1, 0.28971151111494992: 1, 0.2897072068790757: 1, 0.28967158442117769: 1, 0.28965776418404582: 1, 0.28959337067299434: 1, 0.28957222192495069: 1, 0.28955754500614433: 1, 0.28954839968321661: 1, 0.28950685322404934: 1, 0.2894895701910562: 1, 0.28943361059637635: 1, 0.28943017455431902: 1, 0.28942115620443243: 1, 0.28939624017535415: 1, 0.28937270005074822: 1, 0.28935362431896766: 1, 0.28931577303388545: 1, 0.28926597573622753: 1, 0.28923441197460603: 1, 0.28919654604299361: 1, 0.28917256934832836: 1, 0.28912911005150466: 1, 0.28909132005619925: 1, 0.28907455373513125: 1, 0.28899060514335667: 1, 0.2889040485780664: 1, 0.28889833894768902: 1, 0.28885345673739676: 1, 0.28878944053241601: 1, 0.2887286980206879: 1, 0.28868026407172243: 1, 0.28866977247811776: 1, 0.2886676694172875: 1, 0.28866481208362804: 1, 0.28859886808660473: 1, 0.288556303416381: 1, 0.28846080334912483: 1, 0.28842896466554091: 1, 0.28840707734267895: 1, 0.28840500394899399: 1, 0.28827587608737587: 1, 0.28822415450497396: 1, 0.28814888912074699: 1, 0.2881246691549596: 1, 0.28811334171431546: 1, 0.28809811911460087: 1, 0.28808857803243293: 1, 0.2880480070080127: 1, 0.28804086052795852: 1, 0.28803956972087452: 1, 0.28802895802241468: 1, 0.28796229892645453: 1, 0.28792547942591046: 1, 0.28788900779350213: 1, 0.28785469689453419: 1, 0.28781757207288999: 1, 0.28776306985381589: 1, 0.28775054609288603: 1, 0.28773496551532851: 1, 0.28762200346857419: 1, 0.28760680881508632: 1, 0.28759768234863231: 1, 0.28751707947602401: 1, 0.28746787538907453: 1, 0.28742258361777206: 1, 0.28739232805399317: 1, 0.28737465190408501: 1, 0.28735647067645598: 1, 0.2872799429864803: 1, 0.28726193481291651: 1, 0.28712107556054617: 1, 0.28705895875736315: 1, 0.2870550726163778: 1, 0.28692412374746462: 1, 0.28685729887354289: 1, 0.28673705672567046: 1, 0.28671446735151346: 1, 0.2866975575337154: 1, 0.28669167229753229: 1, 0.28668646439465639: 1, 0.28664260905087185: 1, 0.28664010535475115: 1, 0.28660874669535791: 1, 0.28657782278519534: 1, 0.28655050092194512: 1, 0.28653418999162011: 1, 0.28651844464377207: 1, 0.28650660277797069: 1, 0.2864920904799701: 1, 0.28646145761209019: 1, 0.28645281608181788: 1, 0.28643635966172959: 1, 0.28640982555518801: 1, 0.2863663531419175: 1, 0.28636634007795764: 1, 0.28635459373626343: 1, 0.28634786407668011: 1, 0.28628618988578231: 1, 0.28627603771315835: 1, 0.28622800895516459: 1, 0.28609394974738672: 1, 0.28604642365760741: 1, 0.28599365875644739: 1, 0.28595379159924789: 1, 0.28589884459624815: 1, 0.28588841284151201: 1, 0.28581835194260752: 1, 0.28571336430680433: 1, 0.28570713036272188: 1, 0.28569125855650768: 1, 0.28564741168873342: 1, 0.28562150366279532: 1, 0.28561308381926132: 1, 0.28560641758364996: 1, 0.28554660637109097: 1, 0.28553981410646995: 1, 0.28551250710429332: 1, 0.28548072497514998: 1, 0.28547564928250363: 1, 0.28546651953420693: 1, 0.28545179654535024: 1, 0.28543951992728317: 1, 0.28532658788278603: 1, 0.28532190493424625: 1, 0.28525853952405306: 1, 0.285174402569006: 1, 0.28509888041614828: 1, 0.28508380514019865: 1, 0.28503218475057501: 1, 0.28497174219198207: 1, 0.28496547941829897: 1, 0.28490343842451676: 1, 0.28489289740306023: 1, 0.28483644983430184: 1, 0.28482136606692848: 1, 0.28477945217528244: 1, 0.28474885534195082: 1, 0.28472262771345785: 1, 0.28471260876316912: 1, 0.28459430327526453: 1, 0.28459428138401965: 1, 0.28458843260456218: 1, 0.284567213126799: 1, 0.28451499639239758: 1, 0.28449728187533291: 1, 0.28446205050379386: 1, 0.28428512635853137: 1, 0.28423131623971515: 1, 0.28417592759550797: 1, 0.28417025590708805: 1, 0.28413032355095047: 1, 0.28410711696276975: 1, 0.28407353970904281: 1, 0.28405442035370332: 1, 0.28391790750684148: 1, 0.2837931407564665: 1, 0.28377319055285394: 1, 0.28374055302678708: 1, 0.28373000687538003: 1, 0.28369669717326623: 1, 0.28368891431133858: 1, 0.28365769715791012: 1, 0.28365417281974298: 1, 0.28364517250677118: 1, 0.28363373294837207: 1, 0.28360330368422915: 1, 0.28360308600049855: 1, 0.28360034039133414: 1, 0.28355493812795785: 1, 0.28355123648678221: 1, 0.28348400152855557: 1, 0.28347361874178134: 1, 0.28344498049441169: 1, 0.28344259288830675: 1, 0.2834423229915648: 1, 0.28337210552945374: 1, 0.28334297058687624: 1, 0.28332114161616367: 1, 0.28319374857907481: 1, 0.28319055948960958: 1, 0.28317090657355076: 1, 0.28313369739120042: 1, 0.28313153314049244: 1, 0.28306697813539644: 1, 0.28296513505139037: 1, 0.28295165732090555: 1, 0.28289263939576448: 1, 0.28274262833147562: 1, 0.28271423023226155: 1, 0.28268722305601224: 1, 0.28267948301073875: 1, 0.2826310342977596: 1, 0.28262142669407347: 1, 0.28258635694303463: 1, 0.28251967313722043: 1, 0.28234419066648153: 1, 0.28231774027323575: 1, 0.28223193238232952: 1, 0.28222500297767633: 1, 0.28213565735813223: 1, 0.282120166883572: 1, 0.28206678776438482: 1, 0.2819647228580342: 1, 0.28195718542488263: 1, 0.28192150274637262: 1, 0.28185112130511247: 1, 0.28184098052959666: 1, 0.281818378260767: 1, 0.28180861756192893: 1, 0.28176857881015244: 1, 0.28174911327575641: 1, 0.28172310687879859: 1, 0.28166678510623655: 1, 0.28164901573509976: 1, 0.28158166247890232: 1, 0.28154472759624427: 1, 0.2815013623142722: 1, 0.28145282969854968: 1, 0.28131938140967994: 1, 0.28127422147000181: 1, 0.28125362055964909: 1, 0.28125339584781933: 1, 0.28120158787205263: 1, 0.28119324345698204: 1, 0.2811244671325675: 1, 0.28107616837774368: 1, 0.28106923666803785: 1, 0.28101558920014913: 1, 0.28101418345399842: 1, 0.2809605919235198: 1, 0.28094170770210897: 1, 0.28089631758696404: 1, 0.28087868430358531: 1, 0.28084055918710105: 1, 0.28080759648365472: 1, 0.28072589832094186: 1, 0.28072573930832134: 1, 0.28071362394422461: 1, 0.2806756542627919: 1, 0.28065773193452354: 1, 0.28065193876559685: 1, 0.28064416537812398: 1, 0.28058135521298116: 1, 0.28054844246454591: 1, 0.28052099943244801: 1, 0.28047548727904054: 1, 0.28047521239719253: 1, 0.28042816660335684: 1, 0.2804273027750413: 1, 0.28042572229505058: 1, 0.2804238707301478: 1, 0.28041585208715258: 1, 0.28030001731330229: 1, 0.28021412099668203: 1, 0.28015974452545855: 1, 0.27986263993107552: 1, 0.27983621683646664: 1, 0.27983330435284315: 1, 0.27982959541499702: 1, 0.27975498781266139: 1, 0.27975154272724084: 1, 0.2797093754765192: 1, 0.27962390432927903: 1, 0.27959491448471363: 1, 0.27952012440325225: 1, 0.2794591285635839: 1, 0.279444532744138: 1, 0.27942842788157263: 1, 0.27939287225190157: 1, 0.27932382401744132: 1, 0.27926531486376527: 1, 0.27918308284244686: 1, 0.27903810781223559: 1, 0.27901829214020496: 1, 0.2789856580276287: 1, 0.27895107108047862: 1, 0.27892666562493917: 1, 0.27891153949840081: 1, 0.27884345281959133: 1, 0.27882013741240796: 1, 0.27864919903568119: 1, 0.2785961240517047: 1, 0.27858490931958824: 1, 0.27853825578250407: 1, 0.27852738998211102: 1, 0.27851118201079106: 1, 0.27843452422589687: 1, 0.27843285317016436: 1, 0.27838040381691598: 1, 0.27836778755217129: 1, 0.27834141416456953: 1, 0.27828180737199465: 1, 0.27826732866450321: 1, 0.27825026726371438: 1, 0.27823733493935721: 1, 0.27817069335044686: 1, 0.27816032958399328: 1, 0.2781574045470348: 1, 0.27814420273237589: 1, 0.27809750534273359: 1, 0.27808172214461541: 1, 0.27804573523205733: 1, 0.27802400568901298: 1, 0.27797760635978824: 1, 0.2779739583402594: 1, 0.27796949190518561: 1, 0.27793858478543604: 1, 0.2779050744381773: 1, 0.27789985402630013: 1, 0.27788390526919515: 1, 0.27782901205388683: 1, 0.27779032485665694: 1, 0.27771413194572447: 1, 0.27770946299875837: 1, 0.27770055957875744: 1, 0.27765434659052912: 1, 0.27761949461026786: 1, 0.2776050171783247: 1, 0.27758503937263723: 1, 0.27757917032829738: 1, 0.27757495315593123: 1, 0.27751927747841632: 1, 0.27749234576304821: 1, 0.27749113842103651: 1, 0.27748000789774974: 1, 0.2774739468986977: 1, 0.27746654530829601: 1, 0.27743280499298217: 1, 0.27738037877193977: 1, 0.277306529427156: 1, 0.27725637358848249: 1, 0.27723071479121331: 1, 0.27720050132138813: 1, 0.27716863651974244: 1, 0.27714488748487942: 1, 0.27708191749530259: 1, 0.27703747231676235: 1, 0.2769765485084793: 1, 0.27697283970481346: 1, 0.27691802650217912: 1, 0.27683886738445557: 1, 0.27680328692724465: 1, 0.27676112011407805: 1, 0.27667466206382774: 1, 0.27654278609872024: 1, 0.27647278544717224: 1, 0.27647099850772006: 1, 0.27647013015655347: 1, 0.27646980578205588: 1, 0.27643964762701279: 1, 0.2764353436273389: 1, 0.27642142147497095: 1, 0.27640832862465281: 1, 0.27639092289538258: 1, 0.27632023989647858: 1, 0.27630262620562801: 1, 0.2762975382885155: 1, 0.27620702275040732: 1, 0.2761551461100189: 1, 0.27614845032239965: 1, 0.2761197464059223: 1, 0.27611453892984383: 1, 0.27605810275336251: 1, 0.27605443020382853: 1, 0.27603196780160505: 1, 0.27598560372526798: 1, 0.27588147977465799: 1, 0.27587433804784744: 1, 0.27586953683905302: 1, 0.27585051992834547: 1, 0.27579182509689143: 1, 0.27579121481919483: 1, 0.27568730722377849: 1, 0.27545177119510722: 1, 0.27541942071976111: 1, 0.27534396386926913: 1, 0.27529972202734027: 1, 0.27523741480370284: 1, 0.27519876768472235: 1, 0.27513592181674601: 1, 0.27510793696590208: 1, 0.27509145520772016: 1, 0.27496633998950942: 1, 0.2749616974907852: 1, 0.27490617985995125: 1, 0.2748988215067566: 1, 0.27489318636760146: 1, 0.274824531953278: 1, 0.27476451743181496: 1, 0.27475018675640267: 1, 0.27470783877333416: 1, 0.27469440567793907: 1, 0.27462773740994606: 1, 0.27447608080897945: 1, 0.27447394455658558: 1, 0.27443911084982708: 1, 0.27443449301242728: 1, 0.2744002597879095: 1, 0.27437424480814521: 1, 0.27435163810847696: 1, 0.27433663192597829: 1, 0.2743036434455407: 1, 0.27421989454530826: 1, 0.27420260784148859: 1, 0.27412705612375199: 1, 0.27410696634716236: 1, 0.27401673577922453: 1, 0.27399667473671196: 1, 0.27396896789977349: 1, 0.27391822773930169: 1, 0.27388062045953976: 1, 0.27387468898608119: 1, 0.27386377726246663: 1, 0.27375926898582947: 1, 0.27374477159917776: 1, 0.27369157391779925: 1, 0.27368128786685797: 1, 0.27365334001298358: 1, 0.27363277111916429: 1, 0.27360728284705604: 1, 0.27345459475103207: 1, 0.27344272293388039: 1, 0.27343955656564145: 1, 0.27343634928959243: 1, 0.27341735448622873: 1, 0.27340484939342558: 1, 0.27329439217266072: 1, 0.27327217542635901: 1, 0.27326709015373191: 1, 0.27325313432312215: 1, 0.27317016911369918: 1, 0.27316808322328112: 1, 0.27311663018756022: 1, 0.27307674031351353: 1, 0.27306327842072053: 1, 0.27298686359096697: 1, 0.27297163775950978: 1, 0.27296790661351811: 1, 0.2729311564150369: 1, 0.27283803316357613: 1, 0.27281451995055561: 1, 0.27280150267015074: 1, 0.27275606035602051: 1, 0.27266986517788772: 1, 0.27266036130221938: 1, 0.27265416379927587: 1, 0.27263467314326917: 1, 0.27262395217074714: 1, 0.27261816427817009: 1, 0.27257594262825158: 1, 0.27255067548829121: 1, 0.27254470407267262: 1, 0.27248450011798359: 1, 0.27244028783338708: 1, 0.27240628097966824: 1, 0.27238771370855114: 1, 0.27234506834370359: 1, 0.2723066563872838: 1, 0.27228708535738266: 1, 0.27227084918688715: 1, 0.27225885910656966: 1, 0.27219992407666649: 1, 0.27219846576803258: 1, 0.27216204530803828: 1, 0.27210502110043949: 1, 0.27206242721755847: 1, 0.27206174634143976: 1, 0.27204836530075782: 1, 0.27204114644850458: 1, 0.27202260412752438: 1, 0.271895945502721: 1, 0.27188587198915798: 1, 0.27188028183841367: 1, 0.27183229410961346: 1, 0.27183003750393975: 1, 0.27178899260582656: 1, 0.27174884552886508: 1, 0.27172128057780337: 1, 0.27169376039498855: 1, 0.27169091013907215: 1, 0.27168045280666236: 1, 0.27163014983702988: 1, 0.27160133987250251: 1, 0.271533808085691: 1, 0.27153212601124532: 1, 0.27152945882851243: 1, 0.27144926466460684: 1, 0.27141101263519574: 1, 0.27136110636762584: 1, 0.27135867860216051: 1, 0.27131756573366322: 1, 0.27130157851565118: 1, 0.27129385242145887: 1, 0.27125637103869255: 1, 0.27122345712997714: 1, 0.27120654703904373: 1, 0.27115646700904639: 1, 0.27112516568986889: 1, 0.27112374529452032: 1, 0.27111168625896276: 1, 0.27108268918707568: 1, 0.27107039139933403: 1, 0.27104842092710868: 1, 0.27098031710257231: 1, 0.27095839927937776: 1, 0.27095647128524225: 1, 0.27092704024719: 1, 0.27090395069553758: 1, 0.27083905640163963: 1, 0.27047687501923479: 1, 0.27045132240234954: 1, 0.27044811500284349: 1, 0.27042049195399215: 1, 0.27031369014869872: 1, 0.27024658033193494: 1, 0.27024016833765485: 1, 0.27023004747824225: 1, 0.27019293950255757: 1, 0.27016142105598001: 1, 0.2701135752525487: 1, 0.2701016749947629: 1, 0.27007233243030465: 1, 0.27004403758112555: 1, 0.26993980054716077: 1, 0.26990018900030377: 1, 0.26989977657261555: 1, 0.26988946360888194: 1, 0.26988729403331163: 1, 0.26984364540539901: 1, 0.26967565752489975: 1, 0.26963423572783257: 1, 0.26957796756746766: 1, 0.26955584075289002: 1, 0.26955032004048479: 1, 0.2694214238186004: 1, 0.26938777287656257: 1, 0.26932039872952829: 1, 0.26928625187610772: 1, 0.2692691982609049: 1, 0.26923442498236411: 1, 0.26922429062281972: 1, 0.26920351330523545: 1, 0.26908870165281557: 1, 0.2690747299678144: 1, 0.2689627025927887: 1, 0.26892232561924972: 1, 0.26889269030495938: 1, 0.26887273039692272: 1, 0.26875128821895611: 1, 0.26874470961397889: 1, 0.26869460436919923: 1, 0.26869148406398624: 1, 0.2686851112303934: 1, 0.2686670711417436: 1, 0.26861101238964247: 1, 0.26859291730699481: 1, 0.26857189784451885: 1, 0.26856494351905691: 1, 0.26856067459913158: 1, 0.26855223405169226: 1, 0.26853365588888889: 1, 0.26850520095988512: 1, 0.26849610983559247: 1, 0.26849401408906448: 1, 0.26848637286236648: 1, 0.26845789527370623: 1, 0.26844515045716599: 1, 0.26844020755690634: 1, 0.26826319275869587: 1, 0.26824767391304549: 1, 0.26810500001420801: 1, 0.26807118465119351: 1, 0.26807004118377092: 1, 0.26804848131389813: 1, 0.26801166689034239: 1, 0.2680052112004494: 1, 0.26800056482239393: 1, 0.26799495695677894: 1, 0.26798149595181753: 1, 0.26780318206795917: 1, 0.26775165857389288: 1, 0.2676878077703459: 1, 0.26765807186437646: 1, 0.2676086243481145: 1, 0.26756602343658448: 1, 0.26755085732623535: 1, 0.26750957862500629: 1, 0.26750083804843316: 1, 0.2674969857679157: 1, 0.26739514839682965: 1, 0.26737549446628167: 1, 0.26736220441219: 1, 0.26736097627512406: 1, 0.26735085524167468: 1, 0.26734231337289938: 1, 0.26733524445424067: 1, 0.26729659982087539: 1, 0.26725848827632959: 1, 0.26722992826591985: 1, 0.26721046904156459: 1, 0.26720351606923964: 1, 0.26715029880326524: 1, 0.26705078521147196: 1, 0.26703285056795167: 1, 0.26699502913487472: 1, 0.26695808401787685: 1, 0.26695103858068192: 1, 0.26670303814627982: 1, 0.26662687559288845: 1, 0.26660360992140453: 1, 0.2665729869489008: 1, 0.26656872041237789: 1, 0.26652741712254852: 1, 0.26644202884950335: 1, 0.26642982641183494: 1, 0.26642940030588347: 1, 0.26638185562576955: 1, 0.26636193188785307: 1, 0.26628176856511421: 1, 0.26627584837566531: 1, 0.26626631780473414: 1, 0.26625420156302987: 1, 0.26623551447712118: 1, 0.26623149686885456: 1, 0.26608561130754621: 1, 0.26601910808101881: 1, 0.26601516837520456: 1, 0.26601408848915736: 1, 0.26600128735850981: 1, 0.26595633659813034: 1, 0.26593374172875411: 1, 0.26592063941697747: 1, 0.26586101898725212: 1, 0.26584218757488387: 1, 0.26579348621768817: 1, 0.26577948797102663: 1, 0.26574173908333709: 1, 0.26571578930625961: 1, 0.26568805633365383: 1, 0.26565858276376259: 1, 0.26564490784993006: 1, 0.26563061282723349: 1, 0.2655547542019297: 1, 0.26549258632526251: 1, 0.26547613261092129: 1, 0.26547085171239154: 1, 0.26546566175435843: 1, 0.26545963749289675: 1, 0.26544310333911497: 1, 0.26540578105057888: 1, 0.26538862171171196: 1, 0.26535983219781767: 1, 0.26533803772427633: 1, 0.26532998458203838: 1, 0.26522727754993303: 1, 0.26521237415233756: 1, 0.26520359792509474: 1, 0.26518377704481577: 1, 0.26517259958156386: 1, 0.26516520538279853: 1, 0.26516111834854417: 1, 0.26515471290005838: 1, 0.2651046750206999: 1, 0.2650567317751808: 1, 0.26501494136320963: 1, 0.26498361535849541: 1, 0.2649646581417418: 1, 0.26491831959756257: 1, 0.26489013566640773: 1, 0.26488748756092129: 1, 0.26485978423370815: 1, 0.26485432500071193: 1, 0.26473226663174332: 1, 0.26460016422623844: 1, 0.26441993931068164: 1, 0.26433855315773941: 1, 0.26428630484605609: 1, 0.26419593453715723: 1, 0.26418984660163636: 1, 0.26417962933545702: 1, 0.26416965009214205: 1, 0.26413689165456794: 1, 0.264106791812384: 1, 0.2640894963644283: 1, 0.26405528382913052: 1, 0.26404825398835302: 1, 0.26402841805452509: 1, 0.26402089781981736: 1, 0.26399133965556054: 1, 0.26398676529531667: 1, 0.2639697291668251: 1, 0.26396584823630898: 1, 0.26396449175067566: 1, 0.26394441316794293: 1, 0.26385554294860691: 1, 0.26382443656928489: 1, 0.26382143683351622: 1, 0.2637500524358698: 1, 0.26368004695700753: 1, 0.26361785479629984: 1, 0.26361106367458992: 1, 0.26357712578387277: 1, 0.26354246401736275: 1, 0.26353740817685911: 1, 0.26352616680017588: 1, 0.26351252493710225: 1, 0.26345157503436845: 1, 0.26340880109535381: 1, 0.26331631254307974: 1, 0.2633034270805984: 1, 0.26325939980264434: 1, 0.26323234648558891: 1, 0.26316873464585455: 1, 0.26316145912120248: 1, 0.26314833132037813: 1, 0.26313706021893196: 1, 0.26313030964576395: 1, 0.26309966420402947: 1, 0.26309634993790337: 1, 0.26309232584493325: 1, 0.26301501952292333: 1, 0.26297528563453632: 1, 0.26294984699523444: 1, 0.2629456526231706: 1, 0.26294157329157763: 1, 0.26292747333733268: 1, 0.2629057169187205: 1, 0.26289112513470908: 1, 0.26288511501931155: 1, 0.2628755400116613: 1, 0.26283571669606998: 1, 0.26267418722176605: 1, 0.2626741561194802: 1, 0.26267410673541763: 1, 0.26265829103215699: 1, 0.26263200579585244: 1, 0.2625547775011306: 1, 0.26252234891927045: 1, 0.26251230369278455: 1, 0.26247391474906612: 1, 0.26244725545260383: 1, 0.26244671292733374: 1, 0.2624406485930913: 1, 0.26238345055995643: 1, 0.2622498313892761: 1, 0.26224781730890262: 1, 0.26222496441659415: 1, 0.26220533815829833: 1, 0.26213104585473246: 1, 0.26210221737577777: 1, 0.2620935589495697: 1, 0.2620832736490325: 1, 0.26208280733794531: 1, 0.2620330652388661: 1, 0.26191558819076677: 1, 0.26190168747626985: 1, 0.26188336109224858: 1, 0.26186953261777962: 1, 0.26181885409693439: 1, 0.26178988594660768: 1, 0.26171237313709705: 1, 0.26167514671181658: 1, 0.26166646850869063: 1, 0.26164640200486666: 1, 0.26159641741036371: 1, 0.26159115274260047: 1, 0.26158489650475603: 1, 0.26150060561034932: 1, 0.2614810067556535: 1, 0.26145473109605388: 1, 0.26130776290302715: 1, 0.2612620233643822: 1, 0.26120933212498126: 1, 0.26120214907589767: 1, 0.26115624109675339: 1, 0.26104858327366864: 1, 0.26103694330440452: 1, 0.26099886869001909: 1, 0.26096006206243649: 1, 0.26094451928678514: 1, 0.26087717287658685: 1, 0.26087473114180038: 1, 0.26086570641215451: 1, 0.26084648640869046: 1, 0.2608416562275841: 1, 0.2608040785758054: 1, 0.26076281827005193: 1, 0.26070953208307779: 1, 0.26069636755771414: 1, 0.2606501552466462: 1, 0.2606390225389833: 1, 0.26061499551513706: 1, 0.26056269963818263: 1, 0.26053056810738956: 1, 0.26049616054278241: 1, 0.26044398540200009: 1, 0.26037936659238126: 1, 0.26025221464502285: 1, 0.26021481680386621: 1, 0.26020559288020101: 1, 0.26018849115238041: 1, 0.26017864277420677: 1, 0.26017746592071239: 1, 0.26016059497161842: 1, 0.26010237978826495: 1, 0.25999144126223045: 1, 0.25996542425849811: 1, 0.25990795390897864: 1, 0.25989609468238384: 1, 0.25989597879994508: 1, 0.25988879015677574: 1, 0.25985970556409471: 1, 0.25981917718827036: 1, 0.25979518665513185: 1, 0.25979056228182384: 1, 0.25973802955240571: 1, 0.25969139520185341: 1, 0.25966845505729269: 1, 0.25966822455542332: 1, 0.25966633021447921: 1, 0.25966454695187863: 1, 0.25965597716485622: 1, 0.25962234037391008: 1, 0.2595804722871084: 1, 0.2595560563771655: 1, 0.2594744074234141: 1, 0.25946448056128224: 1, 0.25945559682698544: 1, 0.25944432552699148: 1, 0.25943840934900059: 1, 0.25935030210242921: 1, 0.25933061767032894: 1, 0.25932416640517514: 1, 0.25927005767271888: 1, 0.25924083975947704: 1, 0.25917525290378246: 1, 0.25910661970814697: 1, 0.25910475798963883: 1, 0.25893026313324152: 1, 0.25891593372795457: 1, 0.25891070839078928: 1, 0.25879849126082211: 1, 0.25874224491949743: 1, 0.2587226322392151: 1, 0.25871122495798882: 1, 0.25869527920082863: 1, 0.25869412434686762: 1, 0.25869227998899635: 1, 0.25866487939924615: 1, 0.25866400376522602: 1, 0.2586528464564643: 1, 0.25858721036411397: 1, 0.25847826615065683: 1, 0.25846647417466362: 1, 0.25846462388065061: 1, 0.2584597584534879: 1, 0.25845961762531633: 1, 0.25842193230123384: 1, 0.25839329042682141: 1, 0.25833586911924789: 1, 0.25829318958011316: 1, 0.2582322283449458: 1, 0.25821406334746655: 1, 0.25820369804883248: 1, 0.25820223840668205: 1, 0.25818010913434636: 1, 0.25817930180488746: 1, 0.25811019850011296: 1, 0.25810544595763701: 1, 0.25810354377456846: 1, 0.25806115484789999: 1, 0.25804869154079302: 1, 0.25802087566245746: 1, 0.25794042127411559: 1, 0.25786600518927238: 1, 0.25786224307419137: 1, 0.25780227995713861: 1, 0.25777607184535234: 1, 0.25776447346952253: 1, 0.25774303474697635: 1, 0.25770674446992214: 1, 0.25767954076392474: 1, 0.25752989003586024: 1, 0.25741420773876622: 1, 0.25735331480767071: 1, 0.2573220803542548: 1, 0.25728426775283725: 1, 0.25727361063205156: 1, 0.2572473099516146: 1, 0.25724586771458113: 1, 0.25723750810692408: 1, 0.25720561522620378: 1, 0.25715461793906569: 1, 0.25713972525574535: 1, 0.25708463126196024: 1, 0.25706296418917851: 1, 0.25705821503564724: 1, 0.25702160323377443: 1, 0.25695711284505379: 1, 0.25685905040601331: 1, 0.25684788810168774: 1, 0.25679371741023788: 1, 0.25675696701586775: 1, 0.25666120664220998: 1, 0.25663876916665762: 1, 0.25657851210293231: 1, 0.256565212289873: 1, 0.25651744547531552: 1, 0.25649835273747162: 1, 0.25644759574339748: 1, 0.2564274333130826: 1, 0.25641263842240891: 1, 0.25639065155373186: 1, 0.25636484675989246: 1, 0.25632590356283269: 1, 0.25630570043424344: 1, 0.25628805567025215: 1, 0.25628067344761746: 1, 0.2562645002293335: 1, 0.25622918698783886: 1, 0.25622658188778663: 1, 0.25621228161854476: 1, 0.25611755660233693: 1, 0.25611498974132624: 1, 0.25608418808804256: 1, 0.25603568633917745: 1, 0.25600872609525616: 1, 0.25599580360951013: 1, 0.25597521061487449: 1, 0.25597392114305401: 1, 0.25595831251223061: 1, 0.25594078103362966: 1, 0.25588068273679548: 1, 0.25580130435539544: 1, 0.25579761715648253: 1, 0.25574679412709544: 1, 0.2556849953188412: 1, 0.25564985762967318: 1, 0.25563628377232839: 1, 0.25562422340128882: 1, 0.25552373943355133: 1, 0.25552368001658049: 1, 0.2554311774272896: 1, 0.25537514511046755: 1, 0.25531901190753703: 1, 0.25529563528056537: 1, 0.25526812833478479: 1, 0.25526573738753766: 1, 0.25523291258395503: 1, 0.25515143724048533: 1, 0.25513940926110762: 1, 0.25509108113151574: 1, 0.25494946111759237: 1, 0.25490659796341042: 1, 0.25483902008415765: 1, 0.25482700234399669: 1, 0.25482648861215301: 1, 0.25472787699373045: 1, 0.25468137796041496: 1, 0.25467669619277861: 1, 0.25463804051287098: 1, 0.25463166644318375: 1, 0.25462641037952016: 1, 0.25462244056748251: 1, 0.2545947874649408: 1, 0.25457088922175342: 1, 0.25455196658223972: 1, 0.25453785292404019: 1, 0.25452430920143332: 1, 0.25447015735445444: 1, 0.25446938022790511: 1, 0.25442051837512764: 1, 0.25440034838372172: 1, 0.25438501159563187: 1, 0.25437906890155065: 1, 0.254362777025257: 1, 0.25429842446788248: 1, 0.25421598024635073: 1, 0.25420086336941811: 1, 0.25418849347066591: 1, 0.25414170894294424: 1, 0.25413446387630595: 1, 0.25413366967332557: 1, 0.25410962841719004: 1, 0.25410300879569941: 1, 0.25409228728432098: 1, 0.25403207601201283: 1, 0.25401338164927267: 1, 0.25397263526012914: 1, 0.25396861467196957: 1, 0.25395823332670842: 1, 0.25393257601433866: 1, 0.25392759245346747: 1, 0.25392549294604772: 1, 0.25387879348362019: 1, 0.25383573007119914: 1, 0.25374878423741443: 1, 0.25373119622445267: 1, 0.25371557543554724: 1, 0.25371140038967244: 1, 0.25364700144204638: 1, 0.25363215800140337: 1, 0.2536281469332588: 1, 0.25359473158011103: 1, 0.25347370743981112: 1, 0.25345122598780312: 1, 0.25342999705037972: 1, 0.25340641195073255: 1, 0.25338020557368218: 1, 0.25336187563652623: 1, 0.25333542752145605: 1, 0.2532913565499797: 1, 0.25329045044521487: 1, 0.25328090230090616: 1, 0.25327917997543903: 1, 0.25327413440255586: 1, 0.25318887366136705: 1, 0.25318024167454206: 1, 0.25316502664205792: 1, 0.25311307876533928: 1, 0.25310776935773438: 1, 0.25310718569713792: 1, 0.25297844058814811: 1, 0.25294051212796026: 1, 0.25289865989960369: 1, 0.25287947820175566: 1, 0.2528384142331398: 1, 0.25279777952679222: 1, 0.25278370156864483: 1, 0.25271099983232964: 1, 0.25267015181877805: 1, 0.25264042810820542: 1, 0.25261379494700326: 1, 0.25261313378213557: 1, 0.25260176172789167: 1, 0.25254365800439132: 1, 0.25249267088760174: 1, 0.25248307752918919: 1, 0.25245760686932406: 1, 0.25243247614555864: 1, 0.25235910245198984: 1, 0.25234337245170718: 1, 0.25233241985676752: 1, 0.25228649237127504: 1, 0.25227207013649677: 1, 0.25227082112743549: 1, 0.25215190760875766: 1, 0.2521169315972428: 1, 0.25210951686061167: 1, 0.2520883706898267: 1, 0.25204369891489797: 1, 0.25203364081713059: 1, 0.25203281128046162: 1, 0.25199521823144366: 1, 0.25197746207607857: 1, 0.25196314755081806: 1, 0.25187145456041315: 1, 0.25185392169355747: 1, 0.25184256427824658: 1, 0.2517061092501468: 1, 0.25167778404566915: 1, 0.25167074396137901: 1, 0.25165605419264014: 1, 0.25157363762872431: 1, 0.25156386697082206: 1, 0.25156241022758974: 1, 0.25153400622061423: 1, 0.25149349563116591: 1, 0.25146504183128671: 1, 0.25146161892155117: 1, 0.25143186454094324: 1, 0.25141474448588474: 1, 0.25138833954778006: 1, 0.25138494116893662: 1, 0.25138433219108769: 1, 0.25124550622687519: 1, 0.2512270877612372: 1, 0.25121480096883786: 1, 0.25117028034913869: 1, 0.25087466755353632: 1, 0.25085540415367424: 1, 0.2508328250713287: 1, 0.2507860004046476: 1, 0.25076208732998867: 1, 0.25075930913119054: 1, 0.25075327428985106: 1, 0.25073642964024184: 1, 0.25073298844106218: 1, 0.25058527421697574: 1, 0.2505811906927069: 1, 0.25057889336369199: 1, 0.25056854189048844: 1, 0.25055190409481659: 1, 0.2505052251206818: 1, 0.25045337028137332: 1, 0.25039938922068911: 1, 0.25039154613630626: 1, 0.2503441702250695: 1, 0.25032813487878736: 1, 0.25030939902822558: 1, 0.25028288011627248: 1, 0.25025287607018276: 1, 0.25023087565820146: 1, 0.25021352460393087: 1, 0.25020062579501523: 1, 0.25015371047839668: 1, 0.2499609631258515: 1, 0.24995142169359238: 1, 0.24994540570997945: 1, 0.24994400729489097: 1, 0.24993824220449595: 1, 0.24991408531348053: 1, 0.2498831732697798: 1, 0.24986819369416238: 1, 0.24986591111157322: 1, 0.24985115691810364: 1, 0.24973910270073679: 1, 0.24972245622417624: 1, 0.2497015277650414: 1, 0.24965264224726691: 1, 0.24963201214705333: 1, 0.24960982438311599: 1, 0.24956320249690758: 1, 0.24946159408669158: 1, 0.24945754785684782: 1, 0.24940480561111744: 1, 0.24935601392366596: 1, 0.24934509018864048: 1, 0.24929057264002549: 1, 0.24925571175474423: 1, 0.24924659091754145: 1, 0.24923826852644018: 1, 0.24922001955589368: 1, 0.2492140734821173: 1, 0.24919148696646357: 1, 0.24917440654341103: 1, 0.24915954996956441: 1, 0.24915716126410023: 1, 0.24912185993030964: 1, 0.24911656639710447: 1, 0.24905273723728433: 1, 0.24899706803954702: 1, 0.24894915299761719: 1, 0.2488994697541623: 1, 0.24889139933168516: 1, 0.24886354754539938: 1, 0.24883671890660369: 1, 0.24882048801667025: 1, 0.24870047507952975: 1, 0.24869103143876692: 1, 0.24869074477980579: 1, 0.24866948692955812: 1, 0.24865971641859258: 1, 0.2486516328053045: 1, 0.24865127560669478: 1, 0.2486443593512275: 1, 0.24860870997674267: 1, 0.2485061226576831: 1, 0.24842993634288446: 1, 0.24840899746824319: 1, 0.24835246499991387: 1, 0.24830488758216782: 1, 0.24827177609553633: 1, 0.24818888600281569: 1, 0.24795476702409469: 1, 0.24789558649906918: 1, 0.24788939035632149: 1, 0.24783232750757192: 1, 0.24778355930741292: 1, 0.24776624245666226: 1, 0.24762198588751638: 1, 0.24760548743573971: 1, 0.24758781196927307: 1, 0.24757475624820235: 1, 0.24752978816423704: 1, 0.24752458556296342: 1, 0.24747006729903184: 1, 0.24741957391507147: 1, 0.24736967355440379: 1, 0.24731849191333838: 1, 0.24730603509124174: 1, 0.2472797802210964: 1, 0.24724470297128889: 1, 0.24719886307710881: 1, 0.24717915706640112: 1, 0.24710858222009088: 1, 0.24709615990173533: 1, 0.24700791579484013: 1, 0.24700102452783371: 1, 0.24698332849239935: 1, 0.24695611829759392: 1, 0.24695555636724872: 1, 0.24690675813716609: 1, 0.24688012172786172: 1, 0.24685135931618371: 1, 0.24684147903889558: 1, 0.24683270589954745: 1, 0.24676339285895843: 1, 0.24675400978822035: 1, 0.24674445899182743: 1, 0.24672572934500656: 1, 0.24668796459968201: 1, 0.24667996501712025: 1, 0.24666293410534912: 1, 0.24661668054309618: 1, 0.24652124162652736: 1, 0.24646445523322641: 1, 0.24646233211695617: 1, 0.24646206187378764: 1, 0.2464493963063813: 1, 0.246433610231791: 1, 0.24642325375322655: 1, 0.24641441914834428: 1, 0.24639173805943593: 1, 0.24637435880936145: 1, 0.24637106610899867: 1, 0.2463588594836692: 1, 0.24628653106352266: 1, 0.24627294317258885: 1, 0.24625996884316759: 1, 0.24622819784306077: 1, 0.24622559241528122: 1, 0.24621794330192223: 1, 0.24613487893319658: 1, 0.24610925159141589: 1, 0.24604560881293444: 1, 0.24603003429837286: 1, 0.24601599924257203: 1, 0.24598589233210111: 1, 0.24596201958143685: 1, 0.24590464864046521: 1, 0.24590442085128891: 1, 0.24590067470341093: 1, 0.2458688959696359: 1, 0.24586505059856215: 1, 0.24583328890355566: 1, 0.2458152588397628: 1, 0.24580233587211783: 1, 0.24570216904944975: 1, 0.24570192252002759: 1, 0.2456242954709647: 1, 0.24559568898630385: 1, 0.24557021380171387: 1, 0.24554923908905527: 1, 0.24554877927877494: 1, 0.24553357815279545: 1, 0.24550459730893301: 1, 0.24548812914448093: 1, 0.24544027581690647: 1, 0.24535307550350491: 1, 0.24526753807959906: 1, 0.24526530075832612: 1, 0.2450867252614638: 1, 0.24502500530749949: 1, 0.24500947929422695: 1, 0.2449371951391684: 1, 0.24483407953814657: 1, 0.24482065519220397: 1, 0.24480324070324347: 1, 0.24479333994932828: 1, 0.24464696217501297: 1, 0.24462634412195003: 1, 0.24461514871395565: 1, 0.24452092723013441: 1, 0.2445130390605251: 1, 0.24448897400267469: 1, 0.24446873653373435: 1, 0.24446871403209788: 1, 0.24445314835908516: 1, 0.24444655001964888: 1, 0.24438968690873444: 1, 0.24436426853478832: 1, 0.24431740643966385: 1, 0.24430819362640097: 1, 0.24428245688246791: 1, 0.2442770504587248: 1, 0.2442299324239835: 1, 0.24418509220180759: 1, 0.24417269769962838: 1, 0.24416979696692001: 1, 0.24415168061544512: 1, 0.24413276391700503: 1, 0.24406680227064906: 1, 0.24406444502053726: 1, 0.24405883853588003: 1, 0.24398570047978868: 1, 0.24396764202882351: 1, 0.24395743596188502: 1, 0.24391075507684026: 1, 0.24382225426362791: 1, 0.24375954489152618: 1, 0.24374147539628827: 1, 0.24372374381666775: 1, 0.2437071169202496: 1, 0.24368950438647358: 1, 0.24361390462937882: 1, 0.2435831948297581: 1, 0.24356733701235492: 1, 0.24354778660420165: 1, 0.24345285791151064: 1, 0.2434480473166229: 1, 0.24341635724345997: 1, 0.2433522470952508: 1, 0.24332598295659325: 1, 0.24326776551445267: 1, 0.24323875859641511: 1, 0.24323533729057092: 1, 0.24322624349058541: 1, 0.2431326624218772: 1, 0.24310029649894471: 1, 0.24307543473798235: 1, 0.24306492995150228: 1, 0.24303887265471558: 1, 0.24290266136397248: 1, 0.24284358343015183: 1, 0.24280688183657545: 1, 0.24272882282013117: 1, 0.24272500203332259: 1, 0.24267502309399336: 1, 0.24266958292619434: 1, 0.24264581731262658: 1, 0.24259108569386406: 1, 0.24241308502404207: 1, 0.24240762825058323: 1, 0.24234281899754342: 1, 0.24231660302673089: 1, 0.24230806573187577: 1, 0.24228685416338108: 1, 0.24223056781405111: 1, 0.24213066204183381: 1, 0.24212892730320049: 1, 0.24209726361600398: 1, 0.24206993646112102: 1, 0.24206659876713077: 1, 0.24204927023564229: 1, 0.24199465022085054: 1, 0.24199053372539006: 1, 0.24195900006935367: 1, 0.2419125818703215: 1, 0.24183326863782975: 1, 0.24170779368000178: 1, 0.24170303921028152: 1, 0.24167087593441858: 1, 0.2416471691331174: 1, 0.24164306721077305: 1, 0.24164162004566492: 1, 0.24163208948338555: 1, 0.24162811239339671: 1, 0.24161120894379465: 1, 0.24160941325591218: 1, 0.24159514556393991: 1, 0.2414599295109921: 1, 0.24142922361364316: 1, 0.24137315838477919: 1, 0.24133662637224707: 1, 0.24129298157650259: 1, 0.24127767954826837: 1, 0.24123144668422289: 1, 0.24121102337876016: 1, 0.24114273583060969: 1, 0.24113759372055679: 1, 0.24111066103240258: 1, 0.24108048667940116: 1, 0.24104919839159894: 1, 0.24098307740908109: 1, 0.24092596838561053: 1, 0.24089839565590829: 1, 0.24087467099701648: 1, 0.24083393651744922: 1, 0.24083111525419823: 1, 0.24080632896547036: 1, 0.24077727178532873: 1, 0.24077301439354964: 1, 0.24076949609843565: 1, 0.24076677588272483: 1, 0.24075976160493942: 1, 0.24072504626897948: 1, 0.24069791573548907: 1, 0.24069368313985631: 1, 0.24068286240581752: 1, 0.24065026232715214: 1, 0.2406407595139281: 1, 0.240585108142372: 1, 0.24057919427009478: 1, 0.24042954094530508: 1, 0.24042359905032021: 1, 0.24041755374578641: 1, 0.24036859584252915: 1, 0.24034396255841003: 1, 0.24029294328112635: 1, 0.24028423213524638: 1, 0.24027822347461619: 1, 0.24026487430913665: 1, 0.24026342588742744: 1, 0.24024373036434013: 1, 0.24022151812304413: 1, 0.24014878973679699: 1, 0.24013966450514343: 1, 0.24013717960893763: 1, 0.24012186743085556: 1, 0.24011201596521115: 1, 0.24010175303143177: 1, 0.24001923402196262: 1, 0.23997848658404797: 1, 0.23997736840235032: 1, 0.23994302269802104: 1, 0.23993271005934413: 1, 0.23992613748111347: 1, 0.23990172476682692: 1, 0.23989807047700704: 1, 0.23988948390242612: 1, 0.23985305369958132: 1, 0.2398373890270441: 1, 0.23982534063858812: 1, 0.23979792934164479: 1, 0.2397902026181275: 1, 0.23977924800957742: 1, 0.23973766041874431: 1, 0.23957741188618514: 1, 0.23956665694632956: 1, 0.23953687381852165: 1, 0.23947336226341062: 1, 0.23942557246153159: 1, 0.2393792198510854: 1, 0.23936951931531375: 1, 0.23936520212168977: 1, 0.23927407902519848: 1, 0.23924529678669595: 1, 0.23920428879565175: 1, 0.23917898746610058: 1, 0.23917530513865773: 1, 0.23917415230381109: 1, 0.23909753633536593: 1, 0.2390763728899524: 1, 0.23907211333332035: 1, 0.2389953946296367: 1, 0.23898000089652296: 1, 0.23894989588944165: 1, 0.23893148402396874: 1, 0.23893064216254586: 1, 0.23885925045961401: 1, 0.23884946943883575: 1, 0.23883902255821246: 1, 0.23882332960704691: 1, 0.23882284811893123: 1, 0.2388169344265037: 1, 0.23881502289015155: 1, 0.23881310266825134: 1, 0.23878222315134609: 1, 0.2387188205951041: 1, 0.23870402606999902: 1, 0.23868970737816494: 1, 0.23862989791114028: 1, 0.23854663792066427: 1, 0.23849528598383257: 1, 0.23848364589134419: 1, 0.23847125149627132: 1, 0.23846822348320901: 1, 0.2384675475663218: 1, 0.23834428749125691: 1, 0.23833375823884417: 1, 0.23830738832175932: 1, 0.23829849714156276: 1, 0.23827177564658802: 1, 0.23824473918862277: 1, 0.23823244046458858: 1, 0.2382251044608116: 1, 0.23822326467926352: 1, 0.23813260265231068: 1, 0.23810708029171168: 1, 0.2381043639259639: 1, 0.23808917258184309: 1, 0.23804983312078556: 1, 0.23798952396254472: 1, 0.23794747174170702: 1, 0.23793883302351077: 1, 0.23793751378062833: 1, 0.23793168868638173: 1, 0.2379099727263074: 1, 0.23784856725239523: 1, 0.23784005793335838: 1, 0.23779638276327714: 1, 0.23776508206708605: 1, 0.23774257192695519: 1, 0.2377305379122262: 1, 0.23773028061388488: 1, 0.2376796706387854: 1, 0.23767737633714925: 1, 0.23763539639030645: 1, 0.2375622600438459: 1, 0.23754298317165493: 1, 0.23751447141396265: 1, 0.23746630399976332: 1, 0.23744619547492027: 1, 0.23742291708367552: 1, 0.23737143676157696: 1, 0.23734559407880029: 1, 0.23733419975806835: 1, 0.23731670729810106: 1, 0.23729544970438574: 1, 0.23721294470844076: 1, 0.23721041499800341: 1, 0.23720963930370517: 1, 0.23719140651388487: 1, 0.23716913537843007: 1, 0.23714973540140941: 1, 0.23710602689909038: 1, 0.23707675410201054: 1, 0.23706019995212013: 1, 0.23704410217398156: 1, 0.23698671112792946: 1, 0.23698362234106385: 1, 0.23697406178260594: 1, 0.23696641569901356: 1, 0.23694183059678703: 1, 0.23693147222989658: 1, 0.23691831689018014: 1, 0.23687648964354588: 1, 0.23685955296108002: 1, 0.23683704598477126: 1, 0.23683402043065693: 1, 0.23679833860795779: 1, 0.2367905811078761: 1, 0.23675401587912959: 1, 0.23675028570022777: 1, 0.23673453441969233: 1, 0.23672480112997471: 1, 0.23666725936043767: 1, 0.23658858851648085: 1, 0.23652926186416307: 1, 0.23651943763656841: 1, 0.2364589062747818: 1, 0.23642973209145651: 1, 0.23640664864097119: 1, 0.236387884562482: 1, 0.23637059654354509: 1, 0.23635436915598565: 1, 0.23633845260900505: 1, 0.23631418088489498: 1, 0.23630911505145349: 1, 0.23627580412061103: 1, 0.23627030496751097: 1, 0.23624782063858499: 1, 0.23621312052531235: 1, 0.23617084063650817: 1, 0.2361416693841904: 1, 0.23612762090865907: 1, 0.23608676889009025: 1, 0.23608104362350404: 1, 0.23606141324346158: 1, 0.2360607144506584: 1, 0.23604701720197457: 1, 0.23602991731674589: 1, 0.23601968711805382: 1, 0.23600396791613468: 1, 0.23600176159532338: 1, 0.23599558828613515: 1, 0.23598561875148652: 1, 0.23597536075317121: 1, 0.23597446956947002: 1, 0.23596435989741826: 1, 0.23583593755418417: 1, 0.23577159983420903: 1, 0.23573735740582552: 1, 0.23572851118968277: 1, 0.23571653050552957: 1, 0.23570656462701989: 1, 0.23567906112985448: 1, 0.23561265676770146: 1, 0.23560346328547183: 1, 0.23560009546785526: 1, 0.23559652318714996: 1, 0.23554259153166451: 1, 0.23552964047196406: 1, 0.23551521667138059: 1, 0.23550082658644933: 1, 0.23545008771819961: 1, 0.23544584004812491: 1, 0.23540177895640216: 1, 0.23538943183559041: 1, 0.23538690196490078: 1, 0.23530313873552769: 1, 0.23529051839248713: 1, 0.23528969479911485: 1, 0.23526332188704618: 1, 0.23522130164898458: 1, 0.23514769271338223: 1, 0.2351399897881141: 1, 0.23513345718579251: 1, 0.23511110886380998: 1, 0.23506076794417227: 1, 0.23500447334655541: 1, 0.2349926150941577: 1, 0.23493533571378211: 1, 0.23490353338138462: 1, 0.23489959970497495: 1, 0.23487539308884717: 1, 0.23484229566745876: 1, 0.2348137149029505: 1, 0.234806637252474: 1, 0.2347444852658539: 1, 0.23472116796884518: 1, 0.23471581378992568: 1, 0.23465516454315996: 1, 0.23461432352245559: 1, 0.23448734804686278: 1, 0.2344584358834583: 1, 0.23442768003569844: 1, 0.23442513576565197: 1, 0.23441165923086821: 1, 0.23440576863379664: 1, 0.2343922382129672: 1, 0.23439076522376637: 1, 0.23438176472505279: 1, 0.23437944438893055: 1, 0.2343417068434111: 1, 0.23433742470748797: 1, 0.23428804508650838: 1, 0.23426119019853664: 1, 0.23425401731644455: 1, 0.23407957213068259: 1, 0.23407656140080804: 1, 0.23401950646219119: 1, 0.23393074047924284: 1, 0.233888019823112: 1, 0.23384111821210166: 1, 0.23381923418939279: 1, 0.23380553418432562: 1, 0.23377692330193128: 1, 0.23375941362802141: 1, 0.23373712626461987: 1, 0.23372687365775999: 1, 0.23369868536664415: 1, 0.2336833626662978: 1, 0.23362981729593663: 1, 0.23361862279157289: 1, 0.23358671199164274: 1, 0.23358611988049963: 1, 0.23350822764183027: 1, 0.2334054618194315: 1, 0.23334148511339919: 1, 0.23331422949391087: 1, 0.23331064510873875: 1, 0.23330798257964208: 1, 0.2333045851570929: 1, 0.23329614207991953: 1, 0.23327453408202309: 1, 0.23327130419819397: 1, 0.23326790297815839: 1, 0.23317937754216964: 1, 0.23315930814754401: 1, 0.23306698829560174: 1, 0.23304062200174977: 1, 0.23303653656580881: 1, 0.23303319969206418: 1, 0.2330327488551015: 1, 0.2330312665535906: 1, 0.23301421989321278: 1, 0.23299315691940464: 1, 0.23299257966168954: 1, 0.23298693623264846: 1, 0.23296643208231682: 1, 0.2329055937269085: 1, 0.23284609513879162: 1, 0.23280369177541857: 1, 0.2327909698807227: 1, 0.23277792877720591: 1, 0.23273963577869886: 1, 0.23267184442330641: 1, 0.23264753537580687: 1, 0.23254659119659571: 1, 0.23253243588227335: 1, 0.23248890074251213: 1, 0.23248028140599425: 1, 0.23246715447924859: 1, 0.23244875719182398: 1, 0.23241730618688111: 1, 0.23237956816126992: 1, 0.23236997365620546: 1, 0.2323274387964972: 1, 0.23228157330994048: 1, 0.23227551599690646: 1, 0.23224171832261042: 1, 0.23222038625977173: 1, 0.23220857377709112: 1, 0.23220524853584715: 1, 0.23218554446226955: 1, 0.23215302583714181: 1, 0.23214714191977576: 1, 0.23212699979875276: 1, 0.23210263725692176: 1, 0.23209860537659549: 1, 0.23208977346566667: 1, 0.23198280168894905: 1, 0.23197667284427614: 1, 0.23195481851656147: 1, 0.23195005688261405: 1, 0.23192781373036309: 1, 0.23192365389667466: 1, 0.23192190336961643: 1, 0.23190639423078399: 1, 0.2318765684880893: 1, 0.23185317301312081: 1, 0.23183842680135175: 1, 0.23182395776920467: 1, 0.2318131210668995: 1, 0.23171757986911237: 1, 0.23171088799362105: 1, 0.23167273812967157: 1, 0.23164407231647038: 1, 0.23163916917148303: 1, 0.23162235957014721: 1, 0.23153632179543321: 1, 0.23152604372151242: 1, 0.23152537488558786: 1, 0.23151631787385005: 1, 0.23147516773400909: 1, 0.23146279807314488: 1, 0.23143051314797386: 1, 0.23138688250579109: 1, 0.23136508823603011: 1, 0.23130672742699174: 1, 0.23123454655863487: 1, 0.23114950206192039: 1, 0.23112849375765998: 1, 0.23112543686827725: 1, 0.23111959681812733: 1, 0.23102050414634123: 1, 0.23093611676757592: 1, 0.23093280780140082: 1, 0.23091675203581677: 1, 0.23091198565342283: 1, 0.23089176318918156: 1, 0.23086071630331109: 1, 0.23084986082243567: 1, 0.23083257943799357: 1, 0.23078267402337055: 1, 0.23072985191533818: 1, 0.23067940471241449: 1, 0.23066097336140406: 1, 0.23065155707823143: 1, 0.23059151222082161: 1, 0.23058842427529389: 1, 0.23057581607229533: 1, 0.23046931128613707: 1, 0.23042918236234641: 1, 0.23041242310587134: 1, 0.23040741355436736: 1, 0.23036157682987976: 1, 0.23033486147707358: 1, 0.23026901029492686: 1, 0.2302206595339045: 1, 0.23020737585718315: 1, 0.23019990657455836: 1, 0.23016904167772659: 1, 0.23015868839501791: 1, 0.23015367386872118: 1, 0.23013415333989781: 1, 0.23012793627857023: 1, 0.2301133044593634: 1, 0.2300958432489994: 1, 0.23009511518529502: 1, 0.23008565806252956: 1, 0.23006663978911893: 1, 0.2300367851680242: 1, 0.22992642403776567: 1, 0.22991301304784345: 1, 0.22991008932274942: 1, 0.22990214296957659: 1, 0.22988170662814855: 1, 0.22987622982536834: 1, 0.22980326899141221: 1, 0.22973742783170059: 1, 0.22972020012804181: 1, 0.22968023982372576: 1, 0.22967998223257: 1, 0.22966318472510625: 1, 0.22965979536304329: 1, 0.22964921373594635: 1, 0.22960718454366069: 1, 0.22959902280482974: 1, 0.22959865639544411: 1, 0.2295979256585049: 1, 0.22957955970271252: 1, 0.22956242434906204: 1, 0.22956170499732143: 1, 0.22953517314896998: 1, 0.22948096209054272: 1, 0.22945807853668035: 1, 0.22945355141179369: 1, 0.22942834232054063: 1, 0.22942107007662157: 1, 0.2294073995288925: 1, 0.22939637985513725: 1, 0.22938566769747246: 1, 0.22927025836356266: 1, 0.22926753683594456: 1, 0.22920279481721592: 1, 0.22918107028258858: 1, 0.22917899525681287: 1, 0.22904015422704013: 1, 0.22901689417062768: 1, 0.22900625165783697: 1, 0.22894110678377722: 1, 0.22889191549849813: 1, 0.22888798334418495: 1, 0.22886217972602158: 1, 0.22883381516193038: 1, 0.22883326727706449: 1, 0.22880483761615109: 1, 0.22879845377121666: 1, 0.22868538390859247: 1, 0.22863795826694144: 1, 0.2285811149358366: 1, 0.22857365986591191: 1, 0.22856587145442153: 1, 0.22855261474303706: 1, 0.22849890922747126: 1, 0.22846016154370885: 1, 0.2284282424419149: 1, 0.22842750356542749: 1, 0.22838813271909988: 1, 0.22837470815925917: 1, 0.22837034919913524: 1, 0.228363686251076: 1, 0.22833757600651558: 1, 0.22833007403254776: 1, 0.22830692509432954: 1, 0.22829663975697936: 1, 0.22827530952451314: 1, 0.22823584163831118: 1, 0.22822718281885462: 1, 0.22822681821341004: 1, 0.2282257466860883: 1, 0.22822508714719147: 1, 0.22816477077438699: 1, 0.22813643646578663: 1, 0.22810249280474415: 1, 0.22804880846711692: 1, 0.22801947602405012: 1, 0.22799425268239487: 1, 0.22796439932886839: 1, 0.22794594934855825: 1, 0.22792850613174478: 1, 0.22790308803859158: 1, 0.22789914896780583: 1, 0.22786558369197729: 1, 0.22785034866928544: 1, 0.22784295487643053: 1, 0.22783331179886457: 1, 0.22783273620902747: 1, 0.22782968124699668: 1, 0.22780844018570579: 1, 0.22778438339222803: 1, 0.22769207172101175: 1, 0.22762200393187484: 1, 0.22761644220817431: 1, 0.22758304486434319: 1, 0.22749032670643923: 1, 0.22748334937082507: 1, 0.22748155872682843: 1, 0.2274691217730736: 1, 0.22741316637132919: 1, 0.22739509650828901: 1, 0.2273898155460933: 1, 0.22737584585177806: 1, 0.2273492239420383: 1, 0.2272488828314099: 1, 0.22723718303343293: 1, 0.22722309780402519: 1, 0.22715492421494254: 1, 0.2271022388404875: 1, 0.22708750568315569: 1, 0.22708142195760597: 1, 0.22704950837525642: 1, 0.22702848023407754: 1, 0.22702222152454457: 1, 0.22698617065519833: 1, 0.22696896903991676: 1, 0.22694042519199495: 1, 0.22693256174495832: 1, 0.2269296156667247: 1, 0.226901041909843: 1, 0.22688743110751614: 1, 0.22688081897547302: 1, 0.22687959612136877: 1, 0.22680129080056516: 1, 0.22678107619089344: 1, 0.22676429632730247: 1, 0.22675638439169479: 1, 0.2267489708362011: 1, 0.22674221459165675: 1, 0.22666715347888572: 1, 0.22658845171619352: 1, 0.22656639873543311: 1, 0.22652607269840747: 1, 0.2265197742357816: 1, 0.22650399673743957: 1, 0.22647722278426805: 1, 0.22646153521266624: 1, 0.22645075258649777: 1, 0.22645070946177059: 1, 0.22640711964306592: 1, 0.2263975942581031: 1, 0.226344714433271: 1, 0.22633503982392114: 1, 0.22632216359313947: 1, 0.22632086311681229: 1, 0.22631179967729348: 1, 0.22630064573882697: 1, 0.22626288320451957: 1, 0.22625973958264514: 1, 0.22616679919827576: 1, 0.22612936061447422: 1, 0.22609788222580132: 1, 0.22598556102674389: 1, 0.22596782823191264: 1, 0.22595431468363875: 1, 0.22594929994477625: 1, 0.22587587544627238: 1, 0.22587106859560679: 1, 0.22584722810623603: 1, 0.22583072888488134: 1, 0.22578017107287029: 1, 0.22577905866921466: 1, 0.22577602018753457: 1, 0.2257619095908879: 1, 0.22573820886652368: 1, 0.22569434342613848: 1, 0.22569143908356989: 1, 0.22567384122817374: 1, 0.22562958451696954: 1, 0.22562541082730642: 1, 0.22557486947869235: 1, 0.22557322539167862: 1, 0.2255178324412451: 1, 0.22548552055115889: 1, 0.22545415070522667: 1, 0.22542826725943996: 1, 0.2254260828765749: 1, 0.22541419625011658: 1, 0.22540255151958322: 1, 0.22538155640086591: 1, 0.22538040105610846: 1, 0.22529958869513736: 1, 0.22528587354241714: 1, 0.22526331924482104: 1, 0.22526288622748511: 1, 0.22520647203098021: 1, 0.22519556315078518: 1, 0.22506395393657849: 1, 0.22506241883495717: 1, 0.22503739863181682: 1, 0.22503508293725361: 1, 0.22501044980379434: 1, 0.22496956170420068: 1, 0.22496404073620688: 1, 0.22490453592420404: 1, 0.22486334353927362: 1, 0.22486218780280029: 1, 0.22486057379913227: 1, 0.22480588866618989: 1, 0.22480119142660238: 1, 0.22478634318461102: 1, 0.22475548499977213: 1, 0.22474830342527852: 1, 0.22473931604825756: 1, 0.22470940428876515: 1, 0.22467333807711956: 1, 0.22465152602447422: 1, 0.22462979996066657: 1, 0.22461969326322037: 1, 0.22453901616350805: 1, 0.22447593844847352: 1, 0.22446248938826235: 1, 0.22439657922079337: 1, 0.22437149241902263: 1, 0.22436550508079092: 1, 0.22435110718141732: 1, 0.22433364673554781: 1, 0.22429298289584265: 1, 0.22426971919217711: 1, 0.22423905390960805: 1, 0.22418466380435134: 1, 0.22414713421600932: 1, 0.22408518280714612: 1, 0.22405310312809981: 1, 0.22396469568989399: 1, 0.22393735704690299: 1, 0.22393735098018905: 1, 0.22393212807983279: 1, 0.22383128971832411: 1, 0.22382256628177463: 1, 0.22379357641172248: 1, 0.22379205251419801: 1, 0.22373725714738824: 1, 0.22372819837340299: 1, 0.2237203442854527: 1, 0.22369228239102323: 1, 0.22366572439935722: 1, 0.22366133454089607: 1, 0.22364659129219716: 1, 0.22363377239464186: 1, 0.22361697266836084: 1, 0.22360598736464427: 1, 0.22354236479970266: 1, 0.2235384038017158: 1, 0.22353826311114988: 1, 0.22353683550627285: 1, 0.22353280017717297: 1, 0.22350010040118271: 1, 0.2234983341527258: 1, 0.22348568369104471: 1, 0.22344811052493188: 1, 0.22333516505423659: 1, 0.22332458746034919: 1, 0.22331717271743423: 1, 0.22325194821800487: 1, 0.22321144374876953: 1, 0.22319158734120054: 1, 0.22310997843461355: 1, 0.22310938344241532: 1, 0.223075587480034: 1, 0.22304998008280361: 1, 0.22300439080083123: 1, 0.22300280015371846: 1, 0.22297696109763043: 1, 0.2229766026970938: 1, 0.22297389196196604: 1, 0.2229358093365239: 1, 0.22291100221360405: 1, 0.22289110974140719: 1, 0.22288590546440165: 1, 0.22284684645948707: 1, 0.22281779623747219: 1, 0.22279019681971818: 1, 0.22275085478833442: 1, 0.22271792888094843: 1, 0.22270837178997394: 1, 0.22264741467319704: 1, 0.22259153384967095: 1, 0.22258418730146023: 1, 0.22256857268915042: 1, 0.22252870060305754: 1, 0.22246821031449507: 1, 0.22246496028272753: 1, 0.22246229828622416: 1, 0.22237430371440076: 1, 0.22236646652213957: 1, 0.22236247716038574: 1, 0.22234226829228776: 1, 0.22231867611994871: 1, 0.2222989086302562: 1, 0.22229350937077089: 1, 0.22229339641869453: 1, 0.22226919469863854: 1, 0.22217011515724705: 1, 0.2221663043427427: 1, 0.22215118753243215: 1, 0.2220792038600127: 1, 0.22205996252474497: 1, 0.22205042262698255: 1, 0.22205005101083505: 1, 0.22204255247330695: 1, 0.2220237453385456: 1, 0.22201331200491647: 1, 0.22199262987271773: 1, 0.22196262659033622: 1, 0.22193132112602743: 1, 0.22191192389970088: 1, 0.22184347336455559: 1, 0.22183992124469104: 1, 0.22181693386246257: 1, 0.22180713991260609: 1, 0.22179393905542469: 1, 0.22173695419099682: 1, 0.2216636585056459: 1, 0.22166112851784106: 1, 0.2216400716904402: 1, 0.22162776045883248: 1, 0.22156528751366525: 1, 0.22151842001392341: 1, 0.2214671794328025: 1, 0.22144686834211016: 1, 0.22143968171921968: 1, 0.22142149790321455: 1, 0.22139133115504073: 1, 0.22138615052941846: 1, 0.22131752811175101: 1, 0.22130526775956083: 1, 0.22129195013412778: 1, 0.22127774525923419: 1, 0.22127627204636555: 1, 0.22122304128119855: 1, 0.22102363859207044: 1, 0.22101615949919837: 1, 0.22097211146977661: 1, 0.22091537603223263: 1, 0.22089528824489335: 1, 0.2208884304850546: 1, 0.22084248750010183: 1, 0.2208342378137387: 1, 0.22079809445238943: 1, 0.22071659099224966: 1, 0.22063798555328767: 1, 0.22061350850906372: 1, 0.22057968139119297: 1, 0.2205147482727548: 1, 0.22050519959302681: 1, 0.2204612777148077: 1, 0.22045696665767212: 1, 0.22045218297531319: 1, 0.2204369892631306: 1, 0.2204139253835031: 1, 0.22040288387413795: 1, 0.22036821393912642: 1, 0.22033592661930101: 1, 0.22029557882571904: 1, 0.22029323681037688: 1, 0.22029207033365159: 1, 0.22026249007085594: 1, 0.22025844858443791: 1, 0.22025246880999214: 1, 0.22012053300430837: 1, 0.22009665131126352: 1, 0.22003717056531175: 1, 0.22000758255997538: 1, 0.21995677344155146: 1, 0.21994352519263485: 1, 0.21991005169103237: 1, 0.21988896288824444: 1, 0.21987332976338078: 1, 0.2198526101445003: 1, 0.21983623609174252: 1, 0.2198315742548087: 1, 0.21981931092247894: 1, 0.2198041249337849: 1, 0.21978095729324873: 1, 0.21972932967087672: 1, 0.21964157448292598: 1, 0.21963377427481193: 1, 0.2195841441113203: 1, 0.21952007613998789: 1, 0.21945212106823792: 1, 0.21941515535694509: 1, 0.21921589035217268: 1, 0.21921297428865158: 1, 0.21920575186316252: 1, 0.21919207198059656: 1, 0.21918823825043768: 1, 0.21910606006192818: 1, 0.21909627771883489: 1, 0.21906571798731797: 1, 0.21896129222386582: 1, 0.21895177151902107: 1, 0.21894459034913888: 1, 0.21894313886150923: 1, 0.21893861703219547: 1, 0.2188926439805472: 1, 0.2188780250184017: 1, 0.21885963233064215: 1, 0.21884359358429548: 1, 0.21883195362968791: 1, 0.21875202347301412: 1, 0.21875148561311011: 1, 0.21872915046104896: 1, 0.21872534213325517: 1, 0.21869659437670924: 1, 0.21869458053906232: 1, 0.21869030531712758: 1, 0.21868528681592983: 1, 0.2186808882156196: 1, 0.21862355521656146: 1, 0.21861219670366519: 1, 0.21860426707034072: 1, 0.21857822149683237: 1, 0.21857351498762354: 1, 0.21851197120759588: 1, 0.21850456239625662: 1, 0.2184810392246751: 1, 0.21846254211127236: 1, 0.21844489770565015: 1, 0.21834148742525503: 1, 0.2183369338074895: 1, 0.21832551848748355: 1, 0.2182477853189948: 1, 0.21822275414166697: 1, 0.21820621194493339: 1, 0.21817452100296869: 1, 0.21813116955280143: 1, 0.218126586496006: 1, 0.21809427210467575: 1, 0.21809099314563449: 1, 0.21806728871890207: 1, 0.21805061955509433: 1, 0.21797544925406084: 1, 0.21792576189548635: 1, 0.21792394621998776: 1, 0.21788456692888294: 1, 0.21787800704931828: 1, 0.21785391388854924: 1, 0.21771498543973533: 1, 0.21770320425270473: 1, 0.21767663873924495: 1, 0.21765970100246523: 1, 0.21765670823028746: 1, 0.21760292739691472: 1, 0.21757575077325284: 1, 0.21756466393218252: 1, 0.21755053960119938: 1, 0.21754048667788495: 1, 0.21752815672558815: 1, 0.21747317264552932: 1, 0.21746240929037003: 1, 0.21743027364585785: 1, 0.21743023857181093: 1, 0.21741189729635438: 1, 0.21740139602138228: 1, 0.21739880788975946: 1, 0.21738438810052907: 1, 0.21737109459813178: 1, 0.21729791917985664: 1, 0.21726811712228133: 1, 0.21725580321498575: 1, 0.21724553056958779: 1, 0.21723365812434359: 1, 0.21722958861254349: 1, 0.21722468715017881: 1, 0.21719450509656699: 1, 0.21718402491631109: 1, 0.21715362982732103: 1, 0.21715031374123053: 1, 0.21708815855480346: 1, 0.2170653798841114: 1, 0.21703233327418706: 1, 0.21702603053691172: 1, 0.21701247963445111: 1, 0.21699572031639769: 1, 0.21692134501961852: 1, 0.21688203101192052: 1, 0.21687855357730523: 1, 0.21681537910537715: 1, 0.21672719855022149: 1, 0.21671508923426494: 1, 0.21671488156397839: 1, 0.21667782105924738: 1, 0.21666026517024503: 1, 0.2166319724950504: 1, 0.21662036418829014: 1, 0.21658749280614625: 1, 0.21657203924338642: 1, 0.21653911741267967: 1, 0.21653855238196379: 1, 0.21651055286429513: 1, 0.21645937841017521: 1, 0.21643250096502339: 1, 0.2163881568973969: 1, 0.21638078587656243: 1, 0.21625158673710579: 1, 0.21618985320047707: 1, 0.21612827789154851: 1, 0.2160906952995453: 1, 0.21604586281585397: 1, 0.21596180646050514: 1, 0.21594421461988386: 1, 0.21594234181147601: 1, 0.21592575652577017: 1, 0.21590909785067344: 1, 0.21590598223327898: 1, 0.21590319881685338: 1, 0.21589477114583863: 1, 0.21587834285045993: 1, 0.21586447507479697: 1, 0.21585420230471505: 1, 0.21582379799056681: 1, 0.21582204143176081: 1, 0.21576517554326699: 1, 0.21571840462931388: 1, 0.21571397431027448: 1, 0.21568065140640547: 1, 0.21562230268120888: 1, 0.21559382007430059: 1, 0.21559005989890878: 1, 0.21558439976001387: 1, 0.21557721291371759: 1, 0.21557305037806143: 1, 0.21556634116065373: 1, 0.21556556471529592: 1, 0.21553286018578799: 1, 0.21551615810465508: 1, 0.21548407603484354: 1, 0.21545674230732326: 1, 0.21537348517570593: 1, 0.21536981598167798: 1, 0.21534841163952012: 1, 0.215339217650306: 1, 0.21533645514489283: 1, 0.21527005672875185: 1, 0.2152196062712356: 1, 0.21516050368396356: 1, 0.21514587575169183: 1, 0.21510744361295747: 1, 0.21509263234356496: 1, 0.21508046684252025: 1, 0.21502722658196749: 1, 0.21500722529788535: 1, 0.21500309543547008: 1, 0.21498625570933599: 1, 0.21498499571576957: 1, 0.21491575069048055: 1, 0.21491059266906784: 1, 0.21487097285178017: 1, 0.21484915762217446: 1, 0.21483733252764692: 1, 0.21479473452032138: 1, 0.21478577628447651: 1, 0.21477893046638247: 1, 0.21472560630381166: 1, 0.21471809718195428: 1, 0.21471558789373163: 1, 0.21465179467839968: 1, 0.21464373888562224: 1, 0.21462475861272623: 1, 0.21458337500475447: 1, 0.21452135872040565: 1, 0.21451723829640712: 1, 0.21441031799299357: 1, 0.21438493282273427: 1, 0.21436165159286025: 1, 0.21435413775783724: 1, 0.21434350043482309: 1, 0.21433109656655197: 1, 0.21421196667467723: 1, 0.21420453790512306: 1, 0.21418796329367643: 1, 0.21416414014959168: 1, 0.21412940698859928: 1, 0.21410181852857188: 1, 0.2140580793225603: 1, 0.21404937372910618: 1, 0.21399770107856728: 1, 0.21398277976102575: 1, 0.21397489014022494: 1, 0.21396862704271627: 1, 0.2139472812249972: 1, 0.21390954255897585: 1, 0.21383360550589084: 1, 0.21377911264022059: 1, 0.21376522152498229: 1, 0.2137276902311207: 1, 0.21368602486544583: 1, 0.21365092580786027: 1, 0.21361505435287467: 1, 0.21359115171479706: 1, 0.2135862003830524: 1, 0.21354994669679958: 1, 0.21354559878548715: 1, 0.21351261547381664: 1, 0.21340706418277938: 1, 0.21339746137370005: 1, 0.2133643997897581: 1, 0.2133513678571993: 1, 0.21331401305141512: 1, 0.21327379097175225: 1, 0.2132677253595858: 1, 0.21322095942697891: 1, 0.21318787010789866: 1, 0.21316879297825536: 1, 0.21316189454222897: 1, 0.21310795254089998: 1, 0.21309317998006516: 1, 0.21308141957119334: 1, 0.21308040556035027: 1, 0.21306706675900741: 1, 0.21304065528430885: 1, 0.21302148229545401: 1, 0.21301862453248221: 1, 0.2130118688150883: 1, 0.21300970168859942: 1, 0.21300156914594684: 1, 0.21288787956820715: 1, 0.21288667682767359: 1, 0.21286541819563476: 1, 0.21282549323356192: 1, 0.21277123384132446: 1, 0.21273801518815763: 1, 0.21269303346446924: 1, 0.21267880765870478: 1, 0.21265704437186783: 1, 0.2126411067971633: 1, 0.21262613315913689: 1, 0.21258475548122599: 1, 0.21255246680319465: 1, 0.21255161649081711: 1, 0.21254609784046452: 1, 0.21253678732020384: 1, 0.21248952036014102: 1, 0.21245815426005538: 1, 0.21244480709500302: 1, 0.21239366328499434: 1, 0.21235623949245264: 1, 0.21230874077287659: 1, 0.21229796589265254: 1, 0.21229244660784521: 1, 0.21222808275951824: 1, 0.21221883082050916: 1, 0.2122060407792066: 1, 0.21218011388754168: 1, 0.21213652573010355: 1, 0.21209485600029493: 1, 0.21209472287569342: 1, 0.21208534959392425: 1, 0.21207275177985233: 1, 0.21203585715753745: 1, 0.21203575553388246: 1, 0.21203410646620513: 1, 0.21199327531743914: 1, 0.21188604444776893: 1, 0.21185971068490919: 1, 0.211817702399552: 1, 0.21178669847638659: 1, 0.21177090166544288: 1, 0.21172870127733137: 1, 0.21170812210888473: 1, 0.21167953832118769: 1, 0.21167878330728482: 1, 0.21158251189298652: 1, 0.21152822200867888: 1, 0.21151457339269342: 1, 0.21145934859761101: 1, 0.21142545049224912: 1, 0.21141112684784685: 1, 0.2114094295814026: 1, 0.21133164104069554: 1, 0.21129057747773783: 1, 0.21126208604372818: 1, 0.21123314558367115: 1, 0.21121497561369965: 1, 0.21119817234925145: 1, 0.21118784782224498: 1, 0.21118651024014193: 1, 0.21112646038127364: 1, 0.21110373335514365: 1, 0.21110168711321342: 1, 0.21109877858027157: 1, 0.21106683961480954: 1, 0.21105336517716095: 1, 0.21104275698810745: 1, 0.21101592310938916: 1, 0.2110022901391248: 1, 0.21099379685750008: 1, 0.21092131806249817: 1, 0.21083995330069225: 1, 0.21083908327451706: 1, 0.21081846023164158: 1, 0.21078920880156546: 1, 0.21074181247211959: 1, 0.21073589402702267: 1, 0.21073414871999643: 1, 0.21072445656929822: 1, 0.21070322201355515: 1, 0.21061154775881569: 1, 0.21060796508675123: 1, 0.21055532867476254: 1, 0.21055139892133487: 1, 0.21046764613511651: 1, 0.2104505517566081: 1, 0.21036829750158711: 1, 0.21031824357383297: 1, 0.21028826507482493: 1, 0.210281314969859: 1, 0.21024823276814494: 1, 0.21024107704749551: 1, 0.2101666744220558: 1, 0.21015005353317753: 1, 0.21012507439090131: 1, 0.21010165019842139: 1, 0.21009934173633971: 1, 0.21008074565207846: 1, 0.21006666175697825: 1, 0.21005134139561829: 1, 0.21004040588198344: 1, 0.20992321119749924: 1, 0.20992111736183239: 1, 0.20988661557997199: 1, 0.20986999377830801: 1, 0.20986574847775599: 1, 0.20984926058007075: 1, 0.20983798239550941: 1, 0.20982096564992414: 1, 0.20978610100649994: 1, 0.20977278219291287: 1, 0.20977079791167624: 1, 0.20976562054278411: 1, 0.20972078080061998: 1, 0.20971535562333118: 1, 0.20962926569107698: 1, 0.20961447464279179: 1, 0.20961264251551132: 1, 0.20960670623213953: 1, 0.20958901357500354: 1, 0.20955544377968527: 1, 0.20950454148574232: 1, 0.20949492215485443: 1, 0.20946398964445978: 1, 0.2094626160635169: 1, 0.20943918108131479: 1, 0.20938305320518671: 1, 0.20935506957937006: 1, 0.20934679078638538: 1, 0.20931304345887239: 1, 0.20927068602243065: 1, 0.20925942372329079: 1, 0.20923229732162971: 1, 0.2092243224724607: 1, 0.20921213413726869: 1, 0.20918355823212614: 1, 0.2091564085963776: 1, 0.20914516446518763: 1, 0.20909917296576189: 1, 0.20909331343583076: 1, 0.20905844175496163: 1, 0.20903165472881294: 1, 0.20895783314483621: 1, 0.20894461182230867: 1, 0.20891855764645018: 1, 0.20890750757592405: 1, 0.2088959022061091: 1, 0.20884900276192961: 1, 0.20877599544333766: 1, 0.20877065106860646: 1, 0.20876568569273857: 1, 0.20871592140216899: 1, 0.20869617915482522: 1, 0.20862852971246179: 1, 0.20861607874102639: 1, 0.20859660892944326: 1, 0.20854703824201537: 1, 0.20854674614185517: 1, 0.20853560350606964: 1, 0.20849369438851792: 1, 0.20848847701743695: 1, 0.20845180517153555: 1, 0.20839026854726003: 1, 0.20838948980899721: 1, 0.2083812380137684: 1, 0.20837698873024052: 1, 0.20836573390830473: 1, 0.20836472776826009: 1, 0.20833682073296705: 1, 0.20833122497348266: 1, 0.20825560349570682: 1, 0.20821158625375991: 1, 0.20819606143853633: 1, 0.20815631071037552: 1, 0.20810114304825267: 1, 0.20807387593202378: 1, 0.20804886082873905: 1, 0.20802677575751699: 1, 0.20800594477204831: 1, 0.20799734632476027: 1, 0.20798870399884145: 1, 0.20793086377086881: 1, 0.20790672349090511: 1, 0.20790607802856914: 1, 0.20783392095439679: 1, 0.20782458990040642: 1, 0.20782347464451725: 1, 0.20781431146670315: 1, 0.2077986904872694: 1, 0.20779282450192427: 1, 0.20777960406828005: 1, 0.20777856465225558: 1, 0.20777582826040558: 1, 0.20777042537185733: 1, 0.20774348357661052: 1, 0.20772097616098603: 1, 0.20771588138407651: 1, 0.20771525126911156: 1, 0.20770805623561073: 1, 0.20763263288146019: 1, 0.20762439646952385: 1, 0.20752282558444821: 1, 0.2075151760947718: 1, 0.2075043175426991: 1, 0.20748877938525512: 1, 0.20738987401293399: 1, 0.20736536921211302: 1, 0.20732414949006669: 1, 0.20731179766444313: 1, 0.20720381853002143: 1, 0.20716951886482712: 1, 0.20714433388685666: 1, 0.20711979303780018: 1, 0.20710167592699827: 1, 0.20704107662646729: 1, 0.20702002933606808: 1, 0.20701233009596556: 1, 0.20699922425384276: 1, 0.20698698126641751: 1, 0.20698048409823644: 1, 0.20696108450787273: 1, 0.20695380559783169: 1, 0.2069488530526099: 1, 0.206926855697913: 1, 0.20691852405455222: 1, 0.20688342997168016: 1, 0.20688030637263102: 1, 0.20687674361404285: 1, 0.20684663293450817: 1, 0.20681021946864903: 1, 0.20677621963168805: 1, 0.20673705177545812: 1, 0.20672303611811638: 1, 0.20671210089211975: 1, 0.20667225955849303: 1, 0.2065864640103755: 1, 0.20657867032365251: 1, 0.20647552993362642: 1, 0.20646068490495426: 1, 0.20640518360133936: 1, 0.20637608616868541: 1, 0.20634648697659425: 1, 0.20633580204973423: 1, 0.20632419236193311: 1, 0.20626856514079542: 1, 0.20624986986847327: 1, 0.20624369495050815: 1, 0.20624330969277707: 1, 0.20621970106253307: 1, 0.20621609838441479: 1, 0.20621200164295764: 1, 0.20620474789791041: 1, 0.20620362725671898: 1, 0.20615570845481215: 1, 0.20613476426800767: 1, 0.20608031842489663: 1, 0.20604135373662252: 1, 0.20602709569001842: 1, 0.20599637585117794: 1, 0.20592662363115266: 1, 0.20588226061328635: 1, 0.20587983966214141: 1, 0.20585578086593848: 1, 0.20585541781266031: 1, 0.20584134761175388: 1, 0.20582759548292406: 1, 0.20578511648564662: 1, 0.20578482976056489: 1, 0.20576833467170461: 1, 0.20575544465250878: 1, 0.20573850259928356: 1, 0.20568920401549681: 1, 0.20568545617164699: 1, 0.2056532610767472: 1, 0.20563443981214008: 1, 0.20559995377397733: 1, 0.20557151284367553: 1, 0.20548771485917428: 1, 0.20547170017026817: 1, 0.20546743735190715: 1, 0.20546496866472305: 1, 0.20542545123862485: 1, 0.20540519975629865: 1, 0.20540365709803965: 1, 0.20538619013446477: 1, 0.20538181785268289: 1, 0.20537468037775625: 1, 0.20525343673542223: 1, 0.20524323077099751: 1, 0.20523907661180057: 1, 0.20518334192035015: 1, 0.20516489750836558: 1, 0.20514842742864592: 1, 0.20514643854855294: 1, 0.20512898835282778: 1, 0.20511830305623061: 1, 0.20510022002416262: 1, 0.2050867004545372: 1, 0.20504103336377327: 1, 0.20503376309638185: 1, 0.20492803409211349: 1, 0.20484789292446673: 1, 0.2048196256143473: 1, 0.20473711369345624: 1, 0.20471696713733734: 1, 0.20468314092675649: 1, 0.2046606177735687: 1, 0.20464043708883209: 1, 0.20463090027204858: 1, 0.20452660407930381: 1, 0.20451605630002007: 1, 0.20447419268156961: 1, 0.20446587278867637: 1, 0.20444176086878127: 1, 0.20441282488920742: 1, 0.20438914218455387: 1, 0.2043874241199907: 1, 0.20438393045203404: 1, 0.20437087953745373: 1, 0.20435622348251642: 1, 0.20433149798455477: 1, 0.20433087590808971: 1, 0.20432244047082995: 1, 0.20429909055217846: 1, 0.20429685420657775: 1, 0.20429649551651205: 1, 0.20427845713870274: 1, 0.20422206417204375: 1, 0.20419533738839316: 1, 0.20418337334498188: 1, 0.20415437445103626: 1, 0.20411502111408758: 1, 0.20411143081286381: 1, 0.20409075891606512: 1, 0.2040855552047553: 1, 0.20403676176279456: 1, 0.20401797644578365: 1, 0.20400462661154176: 1, 0.20399507197095029: 1, 0.20393075017022827: 1, 0.2038639363350957: 1, 0.20380699851802894: 1, 0.20379896691009575: 1, 0.20379086853275846: 1, 0.20378544385625655: 1, 0.20378255709251772: 1, 0.20378133684706021: 1, 0.20371546721632089: 1, 0.20371411882023227: 1, 0.20365995550371468: 1, 0.2036415751535853: 1, 0.20362584853410534: 1, 0.20359148222716483: 1, 0.20358715264838825: 1, 0.20358205102605262: 1, 0.20357493776838811: 1, 0.20357359765864508: 1, 0.20355318831213065: 1, 0.20347929755151009: 1, 0.20347276699598144: 1, 0.20343146034269205: 1, 0.20343034775996394: 1, 0.20342667330991746: 1, 0.20339102713817017: 1, 0.20336773991970389: 1, 0.20336127537770171: 1, 0.20332032492554081: 1, 0.20329359170582978: 1, 0.20327581400476291: 1, 0.20322762949276144: 1, 0.20321381704336028: 1, 0.20319471751398005: 1, 0.20317528141383087: 1, 0.20317312099916471: 1, 0.20313332890086563: 1, 0.20306937269849407: 1, 0.20296099381418975: 1, 0.20292223671609444: 1, 0.20292083570001129: 1, 0.20290804958190994: 1, 0.2029071960569839: 1, 0.2028712066984564: 1, 0.20286096331965661: 1, 0.20284370948874342: 1, 0.20284348675946662: 1, 0.20280767350227194: 1, 0.20275724471935536: 1, 0.20275521213943587: 1, 0.20271476398541513: 1, 0.20266724361034091: 1, 0.20261673301250066: 1, 0.20260061180603908: 1, 0.20258410906164989: 1, 0.20257003655732181: 1, 0.20254675551179108: 1, 0.20254340796917911: 1, 0.20251222647471939: 1, 0.20250068147374123: 1, 0.20249062283101044: 1, 0.20246690563521197: 1, 0.20246249584855805: 1, 0.20245297194754569: 1, 0.2024494713254624: 1, 0.20243830080023761: 1, 0.20243802302617162: 1, 0.20243644160533614: 1, 0.20243542559406719: 1, 0.20241561961843316: 1, 0.20237931786461175: 1, 0.20231045987846424: 1, 0.20227255995238203: 1, 0.2022467704021953: 1, 0.20203148946183819: 1, 0.20203024860101007: 1, 0.20201725822307021: 1, 0.20200759734889953: 1, 0.20200115068149305: 1, 0.20199346154566761: 1, 0.20194910993085258: 1, 0.20194835173514822: 1, 0.2019435958555687: 1, 0.20193566294734613: 1, 0.2018923180025633: 1, 0.20188458553989916: 1, 0.20185620738692309: 1, 0.20181652623961172: 1, 0.20179648041658463: 1, 0.20178433372708757: 1, 0.20177939614825696: 1, 0.20177240385481277: 1, 0.20174696442128856: 1, 0.20170307913271299: 1, 0.20169261923330881: 1, 0.20165239536686055: 1, 0.20161345118548021: 1, 0.2015821878697778: 1, 0.20157662701469523: 1, 0.20154878895526851: 1, 0.20154383898776607: 1, 0.20153432170274313: 1, 0.20151835025824838: 1, 0.20151016607575536: 1, 0.20150340185596874: 1, 0.20148447248263437: 1, 0.2014809414167677: 1, 0.20144840702157618: 1, 0.20139789079680775: 1, 0.20137514479514834: 1, 0.20133679908773361: 1, 0.20133265833476602: 1, 0.20132815503540757: 1, 0.20130352169261295: 1, 0.20127775011411125: 1, 0.20127053265163541: 1, 0.20125298856250395: 1, 0.20125061187664744: 1, 0.20123845518623074: 1, 0.20121907579161868: 1, 0.20121550676711106: 1, 0.20118990311975055: 1, 0.20114321082869324: 1, 0.20110747581110525: 1, 0.20105305133122409: 1, 0.20101461321666592: 1, 0.20101180579270508: 1, 0.20100393809742911: 1, 0.20099796149882168: 1, 0.20098556036956672: 1, 0.2009655233860147: 1, 0.20094144611609829: 1, 0.20091303234084024: 1, 0.2008961713087814: 1, 0.20089350226796421: 1, 0.20086777799734365: 1, 0.20084986055941664: 1, 0.20083605290417431: 1, 0.20081051476284112: 1, 0.2007764603868456: 1, 0.20076619465433881: 1, 0.20076240023521327: 1, 0.20075239423759539: 1, 0.20073752296451119: 1, 0.20073472520064597: 1, 0.20072993854027535: 1, 0.20072112748803644: 1, 0.20071259126353899: 1, 0.20065971678123265: 1, 0.20065904180869329: 1, 0.20065548169686651: 1, 0.20065081077958882: 1, 0.2006413369002415: 1, 0.20056911390595772: 1, 0.20052116201994791: 1, 0.20050867600361591: 1, 0.20048127004454852: 1, 0.20044671686102972: 1, 0.20044610858917083: 1, 0.20043876269338992: 1, 0.20041532209383631: 1, 0.20034428864408649: 1, 0.20032282983710523: 1, 0.20030922600979217: 1, 0.200308209669357: 1, 0.20029671834625959: 1, 0.2002315387251131: 1, 0.20023147587614709: 1, 0.20020754824374734: 1, 0.20019919586180457: 1, 0.2001849850587365: 1, 0.20010540116756251: 1, 0.20007812919935725: 1, 0.20006041964993102: 1, 0.20003895520771214: 1, 0.20000388571518857: 1, 0.19999070007440542: 1, 0.1999770298078242: 1, 0.19995029613972709: 1, 0.19994504931484292: 1, 0.19993990181169902: 1, 0.19993988350178971: 1, 0.19993492925192796: 1, 0.19986612962531072: 1, 0.19982879663969416: 1, 0.19982011392345869: 1, 0.19980089837133616: 1, 0.19979577198189097: 1, 0.19975569668667964: 1, 0.19973350696531594: 1, 0.1997189854998955: 1, 0.19970930237984066: 1, 0.19967535449166579: 1, 0.19965439611095542: 1, 0.19964183668609883: 1, 0.19962339745456509: 1, 0.19962322294732096: 1, 0.19961970904111842: 1, 0.19961176853509294: 1, 0.19956783089721386: 1, 0.19954511399157551: 1, 0.19952345814694702: 1, 0.19949627237151624: 1, 0.19949460734582022: 1, 0.19947547283817402: 1, 0.19946675860190055: 1, 0.19943269470752223: 1, 0.199418707701604: 1, 0.19933257079224417: 1, 0.19932949684051934: 1, 0.19932691000325231: 1, 0.1993057308285181: 1, 0.19929203400547679: 1, 0.19929015761804658: 1, 0.1992778731511439: 1, 0.19926859987108161: 1, 0.19923491737718835: 1, 0.19922067813489486: 1, 0.19919225524785095: 1, 0.19918480848344877: 1, 0.1990871126706347: 1, 0.19908458648193911: 1, 0.19895249717283398: 1, 0.19895104908378608: 1, 0.19894097991114842: 1, 0.19892494976694794: 1, 0.19890136382358956: 1, 0.19888246067272991: 1, 0.19883612197264464: 1, 0.1988011387555268: 1, 0.19879690842313696: 1, 0.19878444271793244: 1, 0.19869662685574396: 1, 0.19866994935407209: 1, 0.19861688959197543: 1, 0.19858243406019871: 1, 0.19855263105839907: 1, 0.19855258497025813: 1, 0.19849159370621744: 1, 0.19848688785704457: 1, 0.19842228159138239: 1, 0.19839748149856665: 1, 0.19832446102634427: 1, 0.19832370188394371: 1, 0.19831282906423353: 1, 0.1983079967010104: 1, 0.19829294164140959: 1, 0.19829039801360954: 1, 0.19827644183949653: 1, 0.19827489230590811: 1, 0.1982582189847252: 1, 0.19821242435161879: 1, 0.19820620860835361: 1, 0.19816710374642654: 1, 0.19814561746363243: 1, 0.19813443322142515: 1, 0.19809796793260581: 1, 0.19808992155368346: 1, 0.19806476006543972: 1, 0.19803466408043197: 1, 0.1980120722828792: 1, 0.19800776193870259: 1, 0.19800023862856209: 1, 0.19796668897984981: 1, 0.19796662274645707: 1, 0.19795790837436741: 1, 0.19794848009078689: 1, 0.19793746072712948: 1, 0.19792503154256075: 1, 0.19791648171386064: 1, 0.19789334353833576: 1, 0.19787844918825648: 1, 0.19783365700093808: 1, 0.19780960168453229: 1, 0.19779877778847157: 1, 0.19779566068454016: 1, 0.19777903755288659: 1, 0.19777678309205995: 1, 0.19777132995553476: 1, 0.19773292893057101: 1, 0.19772106382221763: 1, 0.19771706670524158: 1, 0.19771586188102264: 1, 0.19769326542977128: 1, 0.19768666333892668: 1, 0.1976666263978748: 1, 0.19763791167619307: 1, 0.19763070731410817: 1, 0.19761649287330263: 1, 0.19759330222369478: 1, 0.19758999832441818: 1, 0.19756573204381714: 1, 0.19755162711664159: 1, 0.19751204598634112: 1, 0.19751189468576599: 1, 0.19749973695280523: 1, 0.19749694806707732: 1, 0.19747021353230904: 1, 0.1974533629723198: 1, 0.19745204806415001: 1, 0.19745146578199532: 1, 0.19742264145671681: 1, 0.19741544045529988: 1, 0.19741201360847249: 1, 0.19737812844742572: 1, 0.19732880002118866: 1, 0.19730639346406953: 1, 0.19729678877126158: 1, 0.19728294076815706: 1, 0.19726725737553907: 1, 0.1972417076528335: 1, 0.19722885750647082: 1, 0.19722830147137074: 1, 0.19720552521554002: 1, 0.19718495097647024: 1, 0.19714716735955665: 1, 0.19713126113327686: 1, 0.19700566893944818: 1, 0.19700341624297976: 1, 0.19689658595174847: 1, 0.19688964080205973: 1, 0.19687591479379446: 1, 0.19686123990461937: 1, 0.19682545335589663: 1, 0.1968192467826777: 1, 0.19681009189636603: 1, 0.19678315661749118: 1, 0.19677870296448813: 1, 0.19671466101481319: 1, 0.1966999946451701: 1, 0.19669823020279548: 1, 0.19667706235945442: 1, 0.19666961420660908: 1, 0.19666349682808326: 1, 0.19665366935924472: 1, 0.19663638453391902: 1, 0.19662816331604552: 1, 0.19661307808948153: 1, 0.19660682354479425: 1, 0.19651992609131091: 1, 0.19648576172554508: 1, 0.19646887439465191: 1, 0.19646647065645456: 1, 0.19645825024331623: 1, 0.19643196145810179: 1, 0.19642383215275042: 1, 0.19642364955033279: 1, 0.19639225856697168: 1, 0.19634200079517866: 1, 0.19632466132837631: 1, 0.19628520598710864: 1, 0.19627748303187964: 1, 0.19625683776201477: 1, 0.19622135533239593: 1, 0.19622097304678005: 1, 0.19622095607818194: 1, 0.196173372967508: 1, 0.19612682268687737: 1, 0.19610446697594916: 1, 0.19610032305167072: 1, 0.19606773287031301: 1, 0.19605809070794786: 1, 0.1960529475253345: 1, 0.1960219814208774: 1, 0.19596307403510294: 1, 0.19592910465573574: 1, 0.19589982371258316: 1, 0.19588704391136227: 1, 0.19582327951874304: 1, 0.19574747067248835: 1, 0.19571403549160749: 1, 0.19570464475055133: 1, 0.19570307341471763: 1, 0.19565797308162428: 1, 0.19564934121237981: 1, 0.19563471670560847: 1, 0.19560305893185401: 1, 0.19559237159127416: 1, 0.19557458306279762: 1, 0.19555901399704331: 1, 0.19547326658728331: 1, 0.19543040082348834: 1, 0.19536898573305567: 1, 0.19535950581482942: 1, 0.1953502404824663: 1, 0.19534587268271472: 1, 0.19530926147406025: 1, 0.19526446441889: 1, 0.19526346931343302: 1, 0.19522949826388422: 1, 0.19522094563864142: 1, 0.19521695306404721: 1, 0.19520805147240575: 1, 0.1951646262864784: 1, 0.1951495785281151: 1, 0.19513971605504077: 1, 0.19511271993319868: 1, 0.1951117231663366: 1, 0.19510612302388894: 1, 0.19508273417177202: 1, 0.19507218139138163: 1, 0.19502151885696034: 1, 0.19500394618531272: 1, 0.19494612634288955: 1, 0.19494363680572815: 1, 0.19494244481019288: 1, 0.19493824858281691: 1, 0.19492036454401077: 1, 0.1949150556579746: 1, 0.19490964669092561: 1, 0.19488186192605397: 1, 0.1948766133084241: 1, 0.19486300515693386: 1, 0.19485843736071562: 1, 0.19485126182357354: 1, 0.19484757035905731: 1, 0.19483784302994314: 1, 0.19482590418235432: 1, 0.19480576038085881: 1, 0.19480254508054401: 1, 0.19478307595954045: 1, 0.19476265526059303: 1, 0.19474974766085942: 1, 0.19471065667786949: 1, 0.19470716040712269: 1, 0.19468790557872012: 1, 0.19464082293883064: 1, 0.19463051630912767: 1, 0.19462726369967728: 1, 0.19458422285119797: 1, 0.19453542597356374: 1, 0.19452678611550425: 1, 0.19452154426666454: 1, 0.19451305308460629: 1, 0.19450434838188646: 1, 0.19449525109352364: 1, 0.19449477983808466: 1, 0.19447907435478382: 1, 0.19444941400540403: 1, 0.19444041419285971: 1, 0.19439082078080352: 1, 0.19435063861871127: 1, 0.19433971680527401: 1, 0.19425644310733947: 1, 0.19425564269862702: 1, 0.19424023933157228: 1, 0.19422511140818363: 1, 0.1942090329832257: 1, 0.19417351382098649: 1, 0.19416272965309297: 1, 0.19416146228636852: 1, 0.19411931996080989: 1, 0.19408811200392251: 1, 0.19406287009478354: 1, 0.19406067325710066: 1, 0.19403594877266769: 1, 0.19401556191209293: 1, 0.19401347723664433: 1, 0.19401184402253879: 1, 0.19400082048460274: 1, 0.19399048808262853: 1, 0.19395348886729655: 1, 0.19389671371336289: 1, 0.1938812959919608: 1, 0.19387989704150108: 1, 0.19387652667913879: 1, 0.19386946831849383: 1, 0.19384604529579766: 1, 0.19380794826220457: 1, 0.19378852329095889: 1, 0.19377514734470772: 1, 0.19376307760043682: 1, 0.19376106186681399: 1, 0.19372834820364948: 1, 0.19364453990854971: 1, 0.19361931662181325: 1, 0.19360523535751895: 1, 0.19358264887508475: 1, 0.19351612685555775: 1, 0.19343505124634955: 1, 0.19340987121750161: 1, 0.1933569781834269: 1, 0.19334680841008642: 1, 0.19332806752026024: 1, 0.19331368382445305: 1, 0.19331067482330638: 1, 0.19329848714678391: 1, 0.19328363916548738: 1, 0.19323446385280107: 1, 0.19323081389317401: 1, 0.19321820819931457: 1, 0.19321786429772322: 1, 0.19320326557852127: 1, 0.19319652261071144: 1, 0.19315639278715496: 1, 0.1930893888394111: 1, 0.19308818504337705: 1, 0.19306327059839398: 1, 0.19305856761942675: 1, 0.19297493227197024: 1, 0.19292697268932538: 1, 0.19292002811225592: 1, 0.19290559998104023: 1, 0.19288983244752753: 1, 0.19282013032198198: 1, 0.19277158535215688: 1, 0.19275550041458234: 1, 0.19274498245928526: 1, 0.19270709123220664: 1, 0.19267609856154794: 1, 0.19262896205150853: 1, 0.19260053412463743: 1, 0.19259422884030258: 1, 0.19256929237058171: 1, 0.19256205636462526: 1, 0.19254168848325398: 1, 0.19252090855304785: 1, 0.19242811991525988: 1, 0.19242408095697028: 1, 0.19239678171457802: 1, 0.19239594922917286: 1, 0.19238506659086446: 1, 0.19238009225308444: 1, 0.19236263673554074: 1, 0.19233925268385282: 1, 0.1923356806088245: 1, 0.19228599074347444: 1, 0.19221423742060448: 1, 0.19216908325266477: 1, 0.19212772593875524: 1, 0.19212654101362303: 1, 0.19210646903081377: 1, 0.19210208171482843: 1, 0.19207336191824453: 1, 0.19206019506451058: 1, 0.19205906142816453: 1, 0.19205415278697502: 1, 0.19203336468181972: 1, 0.19202549682413886: 1, 0.19200680711986545: 1, 0.19200460109842132: 1, 0.19199825375243534: 1, 0.19184349936061437: 1, 0.19183019668658202: 1, 0.19182608493056444: 1, 0.19178645733595123: 1, 0.19174865688671669: 1, 0.1916984629382415: 1, 0.19169527430921959: 1, 0.19166652774688325: 1, 0.19164434688857834: 1, 0.19162715166039893: 1, 0.19161260954119491: 1, 0.19159419364103333: 1, 0.19154140091986094: 1, 0.1915291609916917: 1, 0.19152808680662031: 1, 0.19151827681239125: 1, 0.19151256669449038: 1, 0.19149779566396047: 1, 0.19147361610416647: 1, 0.19146357722861468: 1, 0.19135289351634491: 1, 0.19134779167761637: 1, 0.19126474423419484: 1, 0.19125487321274737: 1, 0.19123642553196074: 1, 0.19120835074387088: 1, 0.19118902320327374: 1, 0.19117780697066339: 1, 0.19117344851717483: 1, 0.19116901874512984: 1, 0.19116262401974901: 1, 0.19114000621066821: 1, 0.19109080582993426: 1, 0.19107347186923818: 1, 0.19105802207252992: 1, 0.19100695599735465: 1, 0.19098249604734402: 1, 0.19096560011481495: 1, 0.19094640062149795: 1, 0.19094040848088262: 1, 0.19092752485971806: 1, 0.19089019685809086: 1, 0.19085582956076089: 1, 0.19085508041986493: 1, 0.19084979362724502: 1, 0.19083568792252134: 1, 0.1908341358030575: 1, 0.19081157892805797: 1, 0.19078932023493519: 1, 0.19077355260239443: 1, 0.19075086584683751: 1, 0.1907325870393447: 1, 0.19073039639088335: 1, 0.19072981134832623: 1, 0.19070797079085747: 1, 0.19067015696489054: 1, 0.19064540649355183: 1, 0.19064293893238549: 1, 0.19063056309393245: 1, 0.19062976408813181: 1, 0.19059833184705388: 1, 0.19058782624082041: 1, 0.19052692415768147: 1, 0.19052177101530773: 1, 0.19052169983292108: 1, 0.19049157955540486: 1, 0.19042934709844872: 1, 0.19042153616136018: 1, 0.19038495563641175: 1, 0.19035507608072105: 1, 0.19033786952640117: 1, 0.19031798667548022: 1, 0.19023238412231228: 1, 0.1902248678581713: 1, 0.19020605724431189: 1, 0.19019940720259343: 1, 0.19019373056769867: 1, 0.19019107299458901: 1, 0.19018471710330559: 1, 0.19017832866812173: 1, 0.19016611027599709: 1, 0.19009503057805965: 1, 0.19008790857022859: 1, 0.19007479113362497: 1, 0.19006382923441409: 1, 0.18997223832754057: 1, 0.1899536568191095: 1, 0.18991112861556503: 1, 0.18990753940867094: 1, 0.18988231994135557: 1, 0.1898635546585366: 1, 0.18985021986488498: 1, 0.18983015564498532: 1, 0.18982281866260628: 1, 0.18980842970074968: 1, 0.1897839403929181: 1, 0.18976745595370001: 1, 0.189765091061146: 1, 0.18974641754611454: 1, 0.18972383732244424: 1, 0.18969956709299285: 1, 0.18969296600168714: 1, 0.1896914561490988: 1, 0.18967501434955325: 1, 0.18967391845979981: 1, 0.18964567475810348: 1, 0.18959217205958021: 1, 0.18958491452877119: 1, 0.18958107244237185: 1, 0.18956786551458815: 1, 0.18956293202917313: 1, 0.1895261861203546: 1, 0.18948812178476582: 1, 0.18947174732284647: 1, 0.18946915812866794: 1, 0.18943095957664757: 1, 0.18935960765904539: 1, 0.18935820707125883: 1, 0.18935790326613081: 1, 0.18934584287340728: 1, 0.18929008741100578: 1, 0.18927009220382859: 1, 0.18926731194369384: 1, 0.18925618486993834: 1, 0.18924332226810797: 1, 0.18923907753072544: 1, 0.18923805503809629: 1, 0.18922333902383062: 1, 0.18920708733723537: 1, 0.18916679317429272: 1, 0.18915557622818127: 1, 0.18914857260932391: 1, 0.18913843155883128: 1, 0.18912483885520046: 1, 0.18909290629039066: 1, 0.18904822378328709: 1, 0.18904387697988401: 1, 0.18898761461706862: 1, 0.18898701101751539: 1, 0.18898073481960773: 1, 0.18897499068243867: 1, 0.18894952118735345: 1, 0.18894645008861602: 1, 0.18894063180948034: 1, 0.18892169498805667: 1, 0.18891444799969034: 1, 0.18891018267152196: 1, 0.18889426259621708: 1, 0.18887430571390998: 1, 0.18884224681430589: 1, 0.18883843943939785: 1, 0.18882538189085887: 1, 0.18880887187083098: 1, 0.18879480865828968: 1, 0.18876872761059205: 1, 0.18875933181388357: 1, 0.18874342689918153: 1, 0.18873564451081928: 1, 0.18868113367281353: 1, 0.18863271709147189: 1, 0.18857027661374368: 1, 0.18856928142189214: 1, 0.18854401030781812: 1, 0.18854353155429496: 1, 0.18852303051352592: 1, 0.18846424783588556: 1, 0.18845868733214044: 1, 0.18845533268431636: 1, 0.18842305859455982: 1, 0.18841715248239083: 1, 0.18838437179384815: 1, 0.18838011693156664: 1, 0.18837375809147347: 1, 0.1883580498547778: 1, 0.18832134287983432: 1, 0.18830661555472489: 1, 0.18826833926910416: 1, 0.18821692764230213: 1, 0.18816671170137991: 1, 0.18815176413309728: 1, 0.18814063249174018: 1, 0.1881375710140229: 1, 0.18813203968403244: 1, 0.1881285611126074: 1, 0.18810613429430112: 1, 0.18806121498750414: 1, 0.1880501700297908: 1, 0.18804699339854358: 1, 0.18804603619400606: 1, 0.18802005353094625: 1, 0.1880038255696112: 1, 0.18800294068791634: 1, 0.18792079355332694: 1, 0.18789731136492946: 1, 0.18788957709310464: 1, 0.18788314437108511: 1, 0.18787796729685985: 1, 0.18786341566950787: 1, 0.18781770498481845: 1, 0.18780128368831595: 1, 0.18776012645456089: 1, 0.18773624112724902: 1, 0.18771915788968982: 1, 0.18770505014754849: 1, 0.18767904738709376: 1, 0.18766768182122726: 1, 0.18763176657827796: 1, 0.18761436152818728: 1, 0.18761391542330563: 1, 0.187563331043023: 1, 0.18755264782969153: 1, 0.1875513484723951: 1, 0.18753892724155674: 1, 0.18748136767790441: 1, 0.18741747587581328: 1, 0.18740089293810142: 1, 0.18739897583008489: 1, 0.18738381149927685: 1, 0.18737290652253713: 1, 0.1873575983389292: 1, 0.18734087324889234: 1, 0.18732334215858082: 1, 0.1873090344022727: 1, 0.18728377765960333: 1, 0.18728233294223021: 1, 0.18727147634985947: 1, 0.18726517174449037: 1, 0.18724910937959924: 1, 0.18724022020336967: 1, 0.18718488476122994: 1, 0.18713536379611845: 1, 0.18712232868698717: 1, 0.18709469824039276: 1, 0.18708051584295105: 1, 0.18707998532135053: 1, 0.18707552612020448: 1, 0.18705711948409992: 1, 0.1870450629766188: 1, 0.18703924198689054: 1, 0.18701944175625862: 1, 0.18699791179249284: 1, 0.1869802161089858: 1, 0.18694161325785433: 1, 0.18691517655066395: 1, 0.18691516554890186: 1, 0.18691081907986892: 1, 0.18688436572403858: 1, 0.18685483053246521: 1, 0.18685239893730127: 1, 0.18682428164527334: 1, 0.18678354546080714: 1, 0.18677076186206956: 1, 0.18676031709834209: 1, 0.18670416540582169: 1, 0.18669054362237403: 1, 0.18666683930296613: 1, 0.18664413832691792: 1, 0.1866412798952532: 1, 0.18663230944899087: 1, 0.18661168074255452: 1, 0.18659504148010683: 1, 0.18659072559678719: 1, 0.18657815492458124: 1, 0.18657296362564121: 1, 0.18656406262507008: 1, 0.1865393522789876: 1, 0.18647419675422164: 1, 0.18646145829715374: 1, 0.18645347670120174: 1, 0.18644151780055998: 1, 0.18643448111703004: 1, 0.18642496578975506: 1, 0.18640147128889761: 1, 0.18635099582330042: 1, 0.18633812128767532: 1, 0.1863361290997734: 1, 0.18626862130802802: 1, 0.18624144913420695: 1, 0.18620930417594367: 1, 0.18620291172398845: 1, 0.18615941791462021: 1, 0.18607085668186418: 1, 0.1860633618026806: 1, 0.1860389216420274: 1, 0.18602929986707856: 1, 0.18598396745992876: 1, 0.1859559869234815: 1, 0.1859155187214519: 1, 0.18585391663015791: 1, 0.18582093542604619: 1, 0.18578666799943266: 1, 0.18578184626037259: 1, 0.18573410306103322: 1, 0.18572858397234415: 1, 0.18571201543991286: 1, 0.18568528777270152: 1, 0.18568078431071347: 1, 0.18567164288473151: 1, 0.18563138708879326: 1, 0.18562982765784158: 1, 0.18561963531457934: 1, 0.1856189555476877: 1, 0.18555716061838043: 1, 0.18554417801702075: 1, 0.18547798854722972: 1, 0.18547743762804034: 1, 0.1854632681128123: 1, 0.18545787872127009: 1, 0.18544939071117955: 1, 0.18544865822006956: 1, 0.18544122602188193: 1, 0.18536724440640606: 1, 0.1853602500344928: 1, 0.18535282227657673: 1, 0.18534185897345212: 1, 0.18533911703144451: 1, 0.18531543085494828: 1, 0.1852745337177282: 1, 0.18527309896075672: 1, 0.18526906618056158: 1, 0.18524395449922285: 1, 0.18521116995302631: 1, 0.18519616260240146: 1, 0.18517590443568691: 1, 0.18516105349335196: 1, 0.18511277695873832: 1, 0.18508483646020962: 1, 0.18501777724153592: 1, 0.1850142458807657: 1, 0.18498335390652956: 1, 0.18493853036127175: 1, 0.18493438813093721: 1, 0.18492420109408428: 1, 0.18489312392019322: 1, 0.18485060291241398: 1, 0.1848477210817544: 1, 0.18483414254643382: 1, 0.18483021700274196: 1, 0.18482962504052017: 1, 0.18482554732905807: 1, 0.18477394190116997: 1, 0.18476994633221927: 1, 0.18474538184896105: 1, 0.18474067129476843: 1, 0.18471690084508524: 1, 0.18471358753708994: 1, 0.18471052225986498: 1, 0.18470210837835643: 1, 0.18467499081567579: 1, 0.18467109244351854: 1, 0.18466897627315751: 1, 0.18465349127022151: 1, 0.18463940928717959: 1, 0.18462242414460758: 1, 0.18454628293604927: 1, 0.18454420520878473: 1, 0.18453991147538956: 1, 0.18448348500766748: 1, 0.18444673708437598: 1, 0.18443731098025745: 1, 0.18442353189937183: 1, 0.18441335047230706: 1, 0.18440444174892354: 1, 0.18438325509246678: 1, 0.18435352291917093: 1, 0.1843424495935132: 1, 0.18426666205027334: 1, 0.18425351824237851: 1, 0.18424463309211472: 1, 0.18423273911676916: 1, 0.18423124897403986: 1, 0.18419781737250679: 1, 0.18419779339957462: 1, 0.18417540848343852: 1, 0.18414619945242691: 1, 0.18412658028532719: 1, 0.18411453716976417: 1, 0.18406812668914255: 1, 0.18406389779070315: 1, 0.18406353939381648: 1, 0.18405297198821652: 1, 0.18404966348490662: 1, 0.18400326961789759: 1, 0.18396720367212679: 1, 0.18396049796070071: 1, 0.18395479440983908: 1, 0.18394409638860743: 1, 0.18390005075187044: 1, 0.18390000553150554: 1, 0.18389404780700661: 1, 0.18385570700693876: 1, 0.18384562669204602: 1, 0.18382699265457697: 1, 0.18382566200915643: 1, 0.18379295846682425: 1, 0.18377969443725112: 1, 0.18377468093633384: 1, 0.18376289514052058: 1, 0.18373712752610996: 1, 0.1837318089072576: 1, 0.1837289502229531: 1, 0.18372788159251949: 1, 0.18371684481544673: 1, 0.1837096150823343: 1, 0.18369360452295544: 1, 0.1836835149826859: 1, 0.18368069096582729: 1, 0.1836644024449639: 1, 0.18364548361899249: 1, 0.18360308279283477: 1, 0.18359279131244749: 1, 0.18358969014256299: 1, 0.18357726300141544: 1, 0.18355291444434549: 1, 0.18353762666602019: 1, 0.18344173364677813: 1, 0.18343837025993609: 1, 0.18342795554070701: 1, 0.18339091332644372: 1, 0.18336822491119781: 1, 0.1833378249508594: 1, 0.18332275572056417: 1, 0.18331173598898989: 1, 0.18329674760213951: 1, 0.1832282589105767: 1, 0.18321668902260646: 1, 0.18321643069536636: 1, 0.18316943334867217: 1, 0.18316559337914523: 1, 0.18316281916006191: 1, 0.18313963590053978: 1, 0.18313365486680788: 1, 0.18311934774040384: 1, 0.18306863895599013: 1, 0.18306773973953772: 1, 0.18305251256880309: 1, 0.1829953931721168: 1, 0.18297298179261251: 1, 0.18296772150628585: 1, 0.18289435674032051: 1, 0.18288867233001405: 1, 0.18282816159532675: 1, 0.18281715656235728: 1, 0.18280610654721619: 1, 0.18280101602251395: 1, 0.18278847191582825: 1, 0.18278611274163514: 1, 0.18272504577835863: 1, 0.18271621761096907: 1, 0.18270743294707364: 1, 0.18268509288600857: 1, 0.182656491628643: 1, 0.18261366804019907: 1, 0.18259459248558874: 1, 0.18254916891946457: 1, 0.18254693105333147: 1, 0.18254675292150641: 1, 0.18250948687559093: 1, 0.18250517134723551: 1, 0.18250096051033884: 1, 0.18247199957669655: 1, 0.18246588149688012: 1, 0.18244318071242971: 1, 0.18243645972614694: 1, 0.18239842381599528: 1, 0.18231899841863963: 1, 0.18231253586800314: 1, 0.18228077308735188: 1, 0.1822698995956171: 1, 0.18222248173661304: 1, 0.18219934500674878: 1, 0.18215016355760311: 1, 0.18209235588812375: 1, 0.18206893827150611: 1, 0.18202858945684774: 1, 0.18202427026207332: 1, 0.18202337174707339: 1, 0.18200218719464575: 1, 0.18199233311184748: 1, 0.18193844602725234: 1, 0.18188747381605186: 1, 0.18187827627641731: 1, 0.18182663298157009: 1, 0.18182067924545248: 1, 0.18173210429254258: 1, 0.18172627882188527: 1, 0.18172412355295878: 1, 0.18172354737404883: 1, 0.18171415969165586: 1, 0.1817091751489493: 1, 0.18168585528345924: 1, 0.1816785537712777: 1, 0.18167046447217919: 1, 0.18162034790299592: 1, 0.18159415725525535: 1, 0.18153201307710659: 1, 0.18153081769127663: 1, 0.1815256200917027: 1, 0.18152367138231262: 1, 0.18150877323431536: 1, 0.18150760505679348: 1, 0.18147241848704462: 1, 0.18145100687551222: 1, 0.18142506092423924: 1, 0.1814008871020272: 1, 0.18136321510766307: 1, 0.1813630837469962: 1, 0.18132076498002705: 1, 0.18128736627276426: 1, 0.18124163150289946: 1, 0.18119369523672785: 1, 0.18115671764002628: 1, 0.18114932041811305: 1, 0.18114165748974298: 1, 0.18113759865032592: 1, 0.18110010622885211: 1, 0.18108439651262614: 1, 0.181047379989309: 1, 0.18100975347361387: 1, 0.18096202755685323: 1, 0.18090591792282307: 1, 0.18090404592201473: 1, 0.18090116188999755: 1, 0.18089861572000848: 1, 0.18089116679483408: 1, 0.18085930996801855: 1, 0.18084285490889393: 1, 0.18084285437947423: 1, 0.18080641037648931: 1, 0.18080599019014604: 1, 0.18076127389253641: 1, 0.18074615800285199: 1, 0.18074534985143284: 1, 0.18072894509824686: 1, 0.18068821501498411: 1, 0.1806837758574639: 1, 0.18063361246059714: 1, 0.18063153372893515: 1, 0.18055923010204877: 1, 0.180556304019001: 1, 0.1805133090365606: 1, 0.18050074500444341: 1, 0.18048561210417902: 1, 0.18044170334029447: 1, 0.1804387316494879: 1, 0.18036131419282692: 1, 0.18034390186098836: 1, 0.18031360349969522: 1, 0.1802691750190242: 1, 0.18026583066680929: 1, 0.18022121913071484: 1, 0.18021794871403291: 1, 0.18020720359435358: 1, 0.18020685853210755: 1, 0.18019529890645919: 1, 0.18012152068731849: 1, 0.18010059415768534: 1, 0.18008033702829224: 1, 0.18006470515838729: 1, 0.1800605268334578: 1, 0.18005806487050863: 1, 0.18005652799192656: 1, 0.18004187202389985: 1, 0.18000103589030703: 1, 0.17997156853762911: 1, 0.1799267497515496: 1, 0.17991995611313535: 1, 0.17991039479844945: 1, 0.17990038782608714: 1, 0.17986621072796094: 1, 0.17983405122327167: 1, 0.17982285295452088: 1, 0.17971773964518098: 1, 0.17971305500901311: 1, 0.1797094306179027: 1, 0.179685762951102: 1, 0.17964314820054877: 1, 0.1796316098576769: 1, 0.17962980088737474: 1, 0.17960008293910751: 1, 0.17958813551506211: 1, 0.17958769628102728: 1, 0.17954624043029369: 1, 0.1795450371448912: 1, 0.17953897029260379: 1, 0.17952613261345865: 1, 0.17951826636281062: 1, 0.17951752732118856: 1, 0.17950184022901616: 1, 0.17946170658379945: 1, 0.17945201420801898: 1, 0.1794511633942848: 1, 0.17943953947179381: 1, 0.1794282368246265: 1, 0.17939246776854373: 1, 0.17937665177082071: 1, 0.17933782535333134: 1, 0.17929055359695983: 1, 0.17924571238882242: 1, 0.17921927282447378: 1, 0.17921905163327176: 1, 0.17917844183320936: 1, 0.17913464577930641: 1, 0.17911825930429065: 1, 0.17911212250099859: 1, 0.17907291021154464: 1, 0.17905112312517735: 1, 0.1790293851768581: 1, 0.17902767406467449: 1, 0.17900016084421816: 1, 0.17899559384256303: 1, 0.17898893129391608: 1, 0.17887817455888694: 1, 0.17887344641888811: 1, 0.17885513001187331: 1, 0.17878591604977018: 1, 0.17875421440496392: 1, 0.17873869701168721: 1, 0.17873051532252798: 1, 0.17872052001941066: 1, 0.17871497758694183: 1, 0.17870360559567819: 1, 0.17869988289281477: 1, 0.17865875220790706: 1, 0.17865687496773786: 1, 0.17865442899590961: 1, 0.17864457938274558: 1, 0.17862561327405466: 1, 0.1786170482960191: 1, 0.17859429458303483: 1, 0.17858945918676822: 1, 0.17858908455259967: 1, 0.17858558282571935: 1, 0.178584479053983: 1, 0.17851119081291131: 1, 0.17850842167501102: 1, 0.17849265894631416: 1, 0.17848824428470189: 1, 0.17847716650342874: 1, 0.17844262805260139: 1, 0.17843472076323974: 1, 0.17841562408440934: 1, 0.17840893417239756: 1, 0.17833015962276969: 1, 0.17832148310749116: 1, 0.17830585025458973: 1, 0.17830222900465245: 1, 0.17828533713468028: 1, 0.17828270002726826: 1, 0.17826451292131212: 1, 0.17822450351236854: 1, 0.17819142742510596: 1, 0.17814298384526014: 1, 0.17813396029381057: 1, 0.17812295129073116: 1, 0.1781218108273922: 1, 0.17810227320649794: 1, 0.17808539613048313: 1, 0.17807717012262594: 1, 0.17807698349423179: 1, 0.17800571138272531: 1, 0.17800475255089498: 1, 0.17800158523965889: 1, 0.17800012539268859: 1, 0.17795368495627834: 1, 0.17792490470208189: 1, 0.17788831380938991: 1, 0.17786830099159934: 1, 0.17786440212473154: 1, 0.1778380353625586: 1, 0.17783735706696707: 1, 0.17783678820801574: 1, 0.17782387541915973: 1, 0.17782333109605009: 1, 0.17780222337782406: 1, 0.17775500269849961: 1, 0.17773442426084715: 1, 0.17771468177116281: 1, 0.17770959756173946: 1, 0.17770359070043179: 1, 0.17769704482951801: 1, 0.17769544927164219: 1, 0.1776856930693535: 1, 0.17766251580989534: 1, 0.17764684774517092: 1, 0.1776428058816143: 1, 0.1776405088151301: 1, 0.1776071383961331: 1, 0.17750776569174509: 1, 0.17748536492816389: 1, 0.17747949209864552: 1, 0.17738814522724788: 1, 0.1773856303514913: 1, 0.17736890348529272: 1, 0.17736631816774653: 1, 0.17725644306192051: 1, 0.17724985981982119: 1, 0.17722090714361999: 1, 0.17720011156108487: 1, 0.17719913947149316: 1, 0.17716034252638335: 1, 0.17712928534032599: 1, 0.17703350702274501: 1, 0.17702531432991619: 1, 0.17701090117455992: 1, 0.17700792763452849: 1, 0.176997113968834: 1, 0.17698369690992424: 1, 0.17697517674863303: 1, 0.17696997952302138: 1, 0.17691858792719095: 1, 0.17690100954925109: 1, 0.1768994857026264: 1, 0.17688155404397052: 1, 0.17682494545138369: 1, 0.17679057615273988: 1, 0.17676998981532355: 1, 0.17675840725224434: 1, 0.17670781494947863: 1, 0.1766886645495824: 1, 0.17665751300437754: 1, 0.17664687734927273: 1, 0.17661344657802924: 1, 0.17660501845532103: 1, 0.17659068771206418: 1, 0.17657531745403415: 1, 0.1765531153057156: 1, 0.17653259597494275: 1, 0.1765029234257782: 1, 0.1764628776434099: 1, 0.17644567177084922: 1, 0.17643249287885249: 1, 0.17639776905172594: 1, 0.1763932838014311: 1, 0.17636840359264555: 1, 0.1763578344035977: 1, 0.17633514375400877: 1, 0.17633394206249586: 1, 0.17631299673319784: 1, 0.17630902275707311: 1, 0.17630716402543678: 1, 0.17629748764600311: 1, 0.17628606616638479: 1, 0.17626764191563662: 1, 0.1762572637417843: 1, 0.17624579670866242: 1, 0.17619879370452629: 1, 0.17619570551609579: 1, 0.1761703641979547: 1, 0.17614981241547492: 1, 0.17611876046265601: 1, 0.17611796947524191: 1, 0.1761019021891794: 1, 0.17608582618097826: 1, 0.17608427779423375: 1, 0.17606389699095484: 1, 0.17606238573015182: 1, 0.17605547359259816: 1, 0.17600808328351999: 1, 0.17598077017308436: 1, 0.17594945298006576: 1, 0.17594878021079308: 1, 0.17594109175594905: 1, 0.1759410422972805: 1, 0.17593732538965529: 1, 0.17591339221821381: 1, 0.17590754193893252: 1, 0.1758918363853417: 1, 0.17587471229245547: 1, 0.17586837646454351: 1, 0.17586566972702644: 1, 0.1758416281469562: 1, 0.17583149302550438: 1, 0.175810909567296: 1, 0.17578927668699895: 1, 0.17578846032824083: 1, 0.17577051909615396: 1, 0.17575438875628968: 1, 0.17575131098392599: 1, 0.17571224133118868: 1, 0.17570370843180516: 1, 0.1757002990967709: 1, 0.17569425641502992: 1, 0.17568459605802841: 1, 0.17568002149945725: 1, 0.17565893918998446: 1, 0.17564528184414266: 1, 0.17562649974310091: 1, 0.17558639794007352: 1, 0.1755741143954789: 1, 0.17556946198649048: 1, 0.17555967909801196: 1, 0.17553742088558788: 1, 0.17547223666345935: 1, 0.1754454584622: 1, 0.17542904909097856: 1, 0.1754235124411469: 1, 0.17541227667392853: 1, 0.17536990437874844: 1, 0.17535248509579179: 1, 0.17530430072307698: 1, 0.17527380004268206: 1, 0.17526487942879931: 1, 0.17525158703417157: 1, 0.17521876518851776: 1, 0.17518822099761394: 1, 0.17514305260995416: 1, 0.17511134425974514: 1, 0.17507001141904394: 1, 0.17505953722056014: 1, 0.17504698741239524: 1, 0.17501022977234945: 1, 0.1750087223550798: 1, 0.17498546257598543: 1, 0.17498313644310926: 1, 0.17492100101600763: 1, 0.17490712855917898: 1, 0.17481961615582317: 1, 0.17479667420599451: 1, 0.17478474303182845: 1, 0.17477317718592519: 1, 0.17475222352275097: 1, 0.17471647512108368: 1, 0.17471191207693901: 1, 0.17471147064951234: 1, 0.17469032356122749: 1, 0.17466077026047977: 1, 0.17465353804887779: 1, 0.1746121957416481: 1, 0.17458632125827658: 1, 0.17456418491795089: 1, 0.17455621793132098: 1, 0.17453886006093844: 1, 0.17453394691327717: 1, 0.17450559520958422: 1, 0.17450149726329914: 1, 0.17448946158602571: 1, 0.17447874059956001: 1, 0.17445167566448536: 1, 0.17444482722141197: 1, 0.17443313991391723: 1, 0.17441678549031187: 1, 0.17440831744933785: 1, 0.1743593135299856: 1, 0.17431351384232982: 1, 0.17421856251598264: 1, 0.17421328085555637: 1, 0.17419354117282868: 1, 0.17416022261333231: 1, 0.17409591151527481: 1, 0.17408384359742113: 1, 0.17406271786990118: 1, 0.17400863512569728: 1, 0.17397832940095823: 1, 0.17396365108142547: 1, 0.17392909228285752: 1, 0.17392668351602023: 1, 0.17392150352218294: 1, 0.17392059777557911: 1, 0.17389993513888843: 1, 0.17388418914999876: 1, 0.17385133863099289: 1, 0.17383256126555677: 1, 0.17381655845595809: 1, 0.17373949377944495: 1, 0.17373837232180553: 1, 0.17372443461869977: 1, 0.17371891319425167: 1, 0.17369582060986083: 1, 0.17368663235383594: 1, 0.17368148320997787: 1, 0.17367978746890148: 1, 0.17366357214821623: 1, 0.17364030615991885: 1, 0.17360411575189563: 1, 0.17359984591544583: 1, 0.17358620967920046: 1, 0.17356300059795265: 1, 0.17353679369502814: 1, 0.17351834982530132: 1, 0.17348686564081245: 1, 0.17343875860166758: 1, 0.17339273198990546: 1, 0.17338322493546204: 1, 0.17335227438061201: 1, 0.17332049348012607: 1, 0.17330080685414812: 1, 0.17327827353791828: 1, 0.17325414209199433: 1, 0.17324986828130712: 1, 0.17324283757372463: 1, 0.17312149415644928: 1, 0.17311899471560382: 1, 0.1731175481470808: 1, 0.17311242475005811: 1, 0.17310643600603443: 1, 0.17308952883112447: 1, 0.17308209985673123: 1, 0.17307314820026692: 1, 0.17306196277378799: 1, 0.17305667280388834: 1, 0.17305140949579989: 1, 0.17297788456400737: 1, 0.17297655985267152: 1, 0.17295355644449875: 1, 0.17294375919003377: 1, 0.17288424620357967: 1, 0.17287299357049557: 1, 0.17284030374568332: 1, 0.1728300282136378: 1, 0.17281521244904371: 1, 0.17278041919805334: 1, 0.17276492642813235: 1, 0.17275879745603048: 1, 0.17272238169883131: 1, 0.17266126375410831: 1, 0.17262861478172378: 1, 0.17261543256998649: 1, 0.17260305594255768: 1, 0.17259997986170947: 1, 0.17258639265295453: 1, 0.17257117944821959: 1, 0.17256007758518341: 1, 0.17250746958525121: 1, 0.17249662293073201: 1, 0.17248815091299266: 1, 0.17244771226939876: 1, 0.17244385912802926: 1, 0.17243439559164786: 1, 0.17242485779917288: 1, 0.17241384502708085: 1, 0.17238855555298574: 1, 0.17237759432737862: 1, 0.17236545455847249: 1, 0.17233380025242784: 1, 0.17229226620405513: 1, 0.17229103569000173: 1, 0.17226193965561373: 1, 0.17223711187004587: 1, 0.17222916042201045: 1, 0.17222357916224101: 1, 0.17217505393062352: 1, 0.1720955755564908: 1, 0.17206118576216606: 1, 0.17204443917310933: 1, 0.17198802185964379: 1, 0.17196522390417651: 1, 0.17195313392374917: 1, 0.17190524642571281: 1, 0.17189950552180827: 1, 0.17189477569882008: 1, 0.1718915335865453: 1, 0.17188424644260966: 1, 0.17185146686604902: 1, 0.17183867742841469: 1, 0.17180022325795538: 1, 0.17179870870091193: 1, 0.17175806709053468: 1, 0.17175382611567053: 1, 0.17173683738554776: 1, 0.17169594061948998: 1, 0.17167682700284365: 1, 0.1716637826529897: 1, 0.17165988684326577: 1, 0.17163836429771626: 1, 0.17154127686210804: 1, 0.17153003844064257: 1, 0.17152694957231535: 1, 0.17152449614799456: 1, 0.17149623349684665: 1, 0.17144428686494245: 1, 0.1714439836362911: 1, 0.17140085639815231: 1, 0.17138817486528737: 1, 0.17138710136827451: 1, 0.17132672227654339: 1, 0.17132461752595818: 1, 0.17131798760777345: 1, 0.17125917043685501: 1, 0.17120572405687387: 1, 0.17119105128967937: 1, 0.17112489629604874: 1, 0.17106775591514575: 1, 0.17106457140147749: 1, 0.17103681761074943: 1, 0.17102575049416111: 1, 0.17101728639395783: 1, 0.17100027931031941: 1, 0.17099716235056675: 1, 0.17097357649377876: 1, 0.17096827810709983: 1, 0.17096512914089557: 1, 0.17094424444145043: 1, 0.17094382377580458: 1, 0.17093827203935294: 1, 0.17092869961402046: 1, 0.17089437156231868: 1, 0.17087137693005425: 1, 0.17085842378428426: 1, 0.17085498555654782: 1, 0.17083451848990716: 1, 0.17080521403700824: 1, 0.1707837231641807: 1, 0.17076383030359349: 1, 0.17074816138636922: 1, 0.17072072199327368: 1, 0.17068268320144347: 1, 0.17064350889047458: 1, 0.17064128845826723: 1, 0.17059021549813405: 1, 0.17058544044487545: 1, 0.17054570457388002: 1, 0.17053364771326798: 1, 0.17049558695350603: 1, 0.17047883018701843: 1, 0.17047646136079592: 1, 0.17037633068635022: 1, 0.17036767322871899: 1, 0.17035956536617602: 1, 0.17035899009982283: 1, 0.17035036621009117: 1, 0.1703434952496484: 1, 0.17031744315880187: 1, 0.17031522575884636: 1, 0.17030111662912284: 1, 0.17028920047439391: 1, 0.17024107663257937: 1, 0.17022943144166003: 1, 0.17022648329159096: 1, 0.17020296790030134: 1, 0.17019437146832631: 1, 0.17018994364201301: 1, 0.17018834996678101: 1, 0.17015026280437476: 1, 0.17014418316183913: 1, 0.17012813216452446: 1, 0.17011397145758678: 1, 0.17011223112770127: 1, 0.17011012490646599: 1, 0.17009880971156541: 1, 0.17008918744451482: 1, 0.17006984317694768: 1, 0.17002292614782916: 1, 0.16999167547068236: 1, 0.16997368650308572: 1, 0.16995817625789758: 1, 0.16995037023786502: 1, 0.16994257589773551: 1, 0.16993310434369224: 1, 0.16992470345614832: 1, 0.16991054495049177: 1, 0.16989028787258462: 1, 0.16986768387483897: 1, 0.16986682818219895: 1, 0.16986673585004758: 1, 0.16985912103509929: 1, 0.16984579775972222: 1, 0.16980121155391323: 1, 0.16976658906551043: 1, 0.16974638299834624: 1, 0.16974282295209922: 1, 0.16970835258444655: 1, 0.16969855817910329: 1, 0.1696875773333355: 1, 0.1696584880711822: 1, 0.1696574038463087: 1, 0.16965493415963082: 1, 0.16964597869325057: 1, 0.16964057097219293: 1, 0.16963054195465871: 1, 0.1696248081659448: 1, 0.16960991070694997: 1, 0.16959565141762059: 1, 0.16957717081145018: 1, 0.16956776251461717: 1, 0.16955755854770524: 1, 0.16954996953096152: 1, 0.16952909536899147: 1, 0.1695274291770191: 1, 0.1694332584714541: 1, 0.16940557873752732: 1, 0.16938681110022855: 1, 0.16938673064799445: 1, 0.16937080787562958: 1, 0.16935364875112568: 1, 0.16934871191421577: 1, 0.16933583770777597: 1, 0.16930064693724176: 1, 0.16926965715454134: 1, 0.16925340557180876: 1, 0.16924210916286028: 1, 0.1692408663624321: 1, 0.16923447757816221: 1, 0.16921905872392395: 1, 0.16921516974066533: 1, 0.16918826124761036: 1, 0.16918824532830889: 1, 0.16917628497741147: 1, 0.16914412033424941: 1, 0.16913749648113482: 1, 0.16911889382735601: 1, 0.1691169599686119: 1, 0.16909241363502203: 1, 0.16907503549626898: 1, 0.16907003013636293: 1, 0.16906719314865698: 1, 0.16901993388382847: 1, 0.16901765080025932: 1, 0.16899628539616832: 1, 0.168992794608126: 1, 0.16894087637399632: 1, 0.16892477762472702: 1, 0.16892048318478736: 1, 0.16890828620016457: 1, 0.16887410892510582: 1, 0.16885189442161253: 1, 0.16884117291831921: 1, 0.16882386905256633: 1, 0.1687542999076444: 1, 0.16873771369732404: 1, 0.16867176968696848: 1, 0.1686709104645408: 1, 0.16861492385498905: 1, 0.16856374649848771: 1, 0.16856000599657003: 1, 0.16853885539640115: 1, 0.16853393322410437: 1, 0.16850713493015171: 1, 0.16850126614966093: 1, 0.16847087164382588: 1, 0.16846300825351579: 1, 0.16845511577630115: 1, 0.16842594566338384: 1, 0.16842260674875595: 1, 0.16840897515483569: 1, 0.16840094344859258: 1, 0.16834575902523138: 1, 0.16830579371951804: 1, 0.16826272222024544: 1, 0.1682465889465258: 1, 0.1682460143505938: 1, 0.16823935118740632: 1, 0.16823286118467765: 1, 0.16818982331823856: 1, 0.16818082820143773: 1, 0.16816345615065589: 1, 0.16809535119383109: 1, 0.16806906126070364: 1, 0.16800225591985485: 1, 0.16798127852074621: 1, 0.16797953415300446: 1, 0.16794661140613598: 1, 0.16793309104929308: 1, 0.1679328022519799: 1, 0.16792021965869205: 1, 0.16791259174275808: 1, 0.16789387301789094: 1, 0.16785979572168461: 1, 0.16783205144326102: 1, 0.16780152663936868: 1, 0.16775523070499646: 1, 0.16770106589019834: 1, 0.16768173790127877: 1, 0.16766287683944917: 1, 0.16758806613821775: 1, 0.16755328426935412: 1, 0.16755044733255769: 1, 0.16752712737535208: 1, 0.16749398616783806: 1, 0.1674893770800798: 1, 0.16747364812129548: 1, 0.16747283674711505: 1, 0.16744940633511979: 1, 0.1674432973354778: 1, 0.16743565011466288: 1, 0.16742801477896657: 1, 0.167425367520221: 1, 0.16742321548888581: 1, 0.16742181048639229: 1, 0.16740596062713686: 1, 0.16739933733748372: 1, 0.16739175812823984: 1, 0.1673907167051833: 1, 0.16738418737707997: 1, 0.16735411797894881: 1, 0.16732124980608579: 1, 0.167287448887043: 1, 0.16727036404852119: 1, 0.16725036435126664: 1, 0.16724712307095729: 1, 0.1672464545909641: 1, 0.16722230993742512: 1, 0.16718409632191064: 1, 0.16714174928825909: 1, 0.16712358936500651: 1, 0.16710182614206373: 1, 0.16709685847688704: 1, 0.16708415933847204: 1, 0.16708359604306475: 1, 0.16706250629418118: 1, 0.16704973539466481: 1, 0.16704206817857328: 1, 0.16702619644039754: 1, 0.16702106303151956: 1, 0.16699247286086644: 1, 0.16699189331679068: 1, 0.16698941816955221: 1, 0.16697353074531884: 1, 0.16694175985589252: 1, 0.16692869961564602: 1, 0.16690230258903815: 1, 0.16688806678284368: 1, 0.16685678084882799: 1, 0.16685309403826198: 1, 0.16683094564499626: 1, 0.16682973922073485: 1, 0.16677690425786348: 1, 0.16677110485241853: 1, 0.16676965778894209: 1, 0.16676636408223505: 1, 0.16676294284502896: 1, 0.16672525559616638: 1, 0.16671297167204566: 1, 0.16670821834834196: 1, 0.16669167491370368: 1, 0.16668247804847136: 1, 0.16666646850312403: 1, 0.16666089107078139: 1, 0.16661957694706039: 1, 0.16659545849728327: 1, 0.16658713294470176: 1, 0.16658101200270034: 1, 0.16657080538214677: 1, 0.16657055510968727: 1, 0.16655131793758396: 1, 0.16654555693101833: 1, 0.16654497189355871: 1, 0.16652187209374977: 1, 0.16652161169779819: 1, 0.16648639132014448: 1, 0.16646463558320693: 1, 0.16641187245435105: 1, 0.16636511563057493: 1, 0.16633991989950228: 1, 0.16631275076876156: 1, 0.16625630136260938: 1, 0.1662415710404215: 1, 0.16623627838925775: 1, 0.16622035774595828: 1, 0.16621215880492626: 1, 0.16621128182598882: 1, 0.16620324602208686: 1, 0.16619799296273757: 1, 0.16618931094032194: 1, 0.166156414651116: 1, 0.16614676051722463: 1, 0.16614225277260736: 1, 0.16613120472980414: 1, 0.16612403647833765: 1, 0.16612160054324532: 1, 0.16610222390092996: 1, 0.16609994593762095: 1, 0.16607295336169181: 1, 0.16605279736284467: 1, 0.16603085929138117: 1, 0.16602723767724131: 1, 0.16598867254177616: 1, 0.16596233485091: 1, 0.16595844426031481: 1, 0.16595699601962685: 1, 0.16590690043640677: 1, 0.16588948412037091: 1, 0.16586619787045798: 1, 0.16583641289477258: 1, 0.16583195104874893: 1, 0.16582844942352523: 1, 0.16580217043535886: 1, 0.16577040899289566: 1, 0.16576821865992566: 1, 0.16576227147391254: 1, 0.16568724360386383: 1, 0.16567294009486377: 1, 0.16567068576621155: 1, 0.16566513023840237: 1, 0.1656530159570033: 1, 0.16562980762101739: 1, 0.1655256300197365: 1, 0.16551636655969842: 1, 0.16550927547901947: 1, 0.16548480486418213: 1, 0.16548091187974687: 1, 0.1654782821973115: 1, 0.16546923044439699: 1, 0.16545098863507465: 1, 0.16544824285541523: 1, 0.165441248899106: 1, 0.16544019869232668: 1, 0.16542866091403344: 1, 0.16539709109829018: 1, 0.16535139538537075: 1, 0.16535078565216663: 1, 0.16533747615064504: 1, 0.16532895641992587: 1, 0.16532687257361883: 1, 0.16532077648761168: 1, 0.16530014199972903: 1, 0.16529431792301202: 1, 0.16528373148874864: 1, 0.16522219484569664: 1, 0.16518010992772073: 1, 0.1651649790487642: 1, 0.16504671716418282: 1, 0.16503088031685911: 1, 0.16502587634616697: 1, 0.16496989596848943: 1, 0.16491010917495591: 1, 0.16489006158997277: 1, 0.16488938328772118: 1, 0.16488782278025108: 1, 0.1648643919011766: 1, 0.16485419098650306: 1, 0.16479007409169505: 1, 0.16475787689039281: 1, 0.16475722610254578: 1, 0.16474387804143206: 1, 0.16474047132083308: 1, 0.1647117516918713: 1, 0.16467768224362739: 1, 0.16467663587844211: 1, 0.16467345533685798: 1, 0.16465625600734263: 1, 0.16462323796001407: 1, 0.16461784524597861: 1, 0.16460613480930958: 1, 0.16458334157300628: 1, 0.16454369773599564: 1, 0.16449795866235117: 1, 0.1644831101461085: 1, 0.16446414238232654: 1, 0.16442433694661721: 1, 0.1643946971290674: 1, 0.16438467639754675: 1, 0.16438223956015532: 1, 0.16437675343464569: 1, 0.16436285023099034: 1, 0.16432367209047349: 1, 0.16430748578074697: 1, 0.16429246952945306: 1, 0.16427597275982506: 1, 0.16427565360724561: 1, 0.16427331639841938: 1, 0.16426819233890139: 1, 0.16426117330300508: 1, 0.16424803530044405: 1, 0.16422652386724063: 1, 0.1642117965281166: 1, 0.16419466253876291: 1, 0.16419454119998683: 1, 0.16418764561101704: 1, 0.16417222805761342: 1, 0.16416337496075775: 1, 0.16415977098332804: 1, 0.16413015300439104: 1, 0.16411826663335721: 1, 0.16410720749748603: 1, 0.16410549470295743: 1, 0.16409031618139358: 1, 0.16408371563066226: 1, 0.16405437670873033: 1, 0.16403580956940914: 1, 0.16403235205733785: 1, 0.16399029854285091: 1, 0.16397723243233664: 1, 0.16396122132628627: 1, 0.16395721076728512: 1, 0.16391464145334594: 1, 0.16387082543846496: 1, 0.16384642978883737: 1, 0.16383190365920774: 1, 0.16382557436741335: 1, 0.16382253202602651: 1, 0.16381016330964582: 1, 0.16378175903768502: 1, 0.16375124098291111: 1, 0.16372759889250463: 1, 0.1637114018639769: 1, 0.16370472021763882: 1, 0.16369926987926631: 1, 0.16366620208945509: 1, 0.16361378653132241: 1, 0.16360127907891375: 1, 0.16355408755150058: 1, 0.16350378059889126: 1, 0.16348783591998264: 1, 0.16346508810151936: 1, 0.16345650925219463: 1, 0.16342756081523166: 1, 0.16340272133778549: 1, 0.16339614165427532: 1, 0.16339534054843433: 1, 0.16338230555052491: 1, 0.16336993900698848: 1, 0.16336588386312095: 1, 0.16333674254091632: 1, 0.16330710989135322: 1, 0.16328646084887116: 1, 0.16327466965587609: 1, 0.16324454457167686: 1, 0.16324214899586514: 1, 0.16319921253240077: 1, 0.16319498351545725: 1, 0.16318429892645023: 1, 0.16317930564485258: 1, 0.16316541646817748: 1, 0.16315778897075989: 1, 0.16302424953248976: 1, 0.16301019943548878: 1, 0.1630055702173131: 1, 0.16299008394356582: 1, 0.16297684113521774: 1, 0.16293405168567329: 1, 0.16293123181061558: 1, 0.16292451086101295: 1, 0.16291127772542477: 1, 0.16290845138245391: 1, 0.16290466569890141: 1, 0.16289307866932809: 1, 0.16287680139668081: 1, 0.16284491568260992: 1, 0.16282688009932164: 1, 0.16281938450503902: 1, 0.16281844063687528: 1, 0.1628166052326778: 1, 0.16281087745515427: 1, 0.16280491309116141: 1, 0.16280110500136682: 1, 0.16279397532456841: 1, 0.16278185523434996: 1, 0.16278001028005085: 1, 0.16275406304219253: 1, 0.16274679023729827: 1, 0.16273590171327235: 1, 0.16268888736571613: 1, 0.16268704754767899: 1, 0.16268326769562499: 1, 0.16267755338243672: 1, 0.16267321638419474: 1, 0.16267030501093033: 1, 0.16259781981988211: 1, 0.16258393105785801: 1, 0.16258301713381118: 1, 0.1624860244130259: 1, 0.16248228226745476: 1, 0.16247984590031869: 1, 0.16241885740778519: 1, 0.16241498434640458: 1, 0.16240626705556147: 1, 0.16237308926124033: 1, 0.16230362812230795: 1, 0.1622663894838321: 1, 0.16226089610220107: 1, 0.16225630729456877: 1, 0.16223423276335083: 1, 0.16219798023018081: 1, 0.16217606814472796: 1, 0.16216543262444547: 1, 0.16208245028775098: 1, 0.16206708851969304: 1, 0.16205381595069196: 1, 0.16203920746576039: 1, 0.16199212105334579: 1, 0.16196828103955996: 1, 0.16194821719410474: 1, 0.1618794361049993: 1, 0.16185674581373716: 1, 0.16182729380170544: 1, 0.16181476685197976: 1, 0.1617864708138313: 1, 0.16177601194016: 1, 0.16176866651215011: 1, 0.16175204887278635: 1, 0.1617308350640648: 1, 0.16169087612258704: 1, 0.16167212437732681: 1, 0.16165736616027562: 1, 0.1616410820104543: 1, 0.16164048669943823: 1, 0.16157355728625364: 1, 0.16154376077421514: 1, 0.16154315785960749: 1, 0.16149959187666538: 1, 0.16147421459048503: 1, 0.16145893558289443: 1, 0.1614344373592474: 1, 0.1614053667067761: 1, 0.16129816015431703: 1, 0.16126374651057765: 1, 0.16126072375905784: 1, 0.16123961851814012: 1, 0.16123770225199438: 1, 0.16122307491659801: 1, 0.16120346790750487: 1, 0.16119712325967525: 1, 0.16116422478490464: 1, 0.16116114654365554: 1, 0.16115178637629657: 1, 0.16110645970413479: 1, 0.16110601685128617: 1, 0.16110361663953524: 1, 0.16109226705573876: 1, 0.16108307360420351: 1, 0.1610649234777678: 1, 0.16104947373093642: 1, 0.16103911991996994: 1, 0.16102218949111513: 1, 0.16102191494438245: 1, 0.1610139019886212: 1, 0.16099238881616593: 1, 0.16098939411277169: 1, 0.16098509969539851: 1, 0.16098409258511226: 1, 0.16096835638463045: 1, 0.16096314995530314: 1, 0.16091566339737839: 1, 0.16091189637737061: 1, 0.16090671106156484: 1, 0.16089277382896355: 1, 0.16086513398385344: 1, 0.1608522916125254: 1, 0.16084880639146107: 1, 0.16084003335190061: 1, 0.16083267617774177: 1, 0.16081868726614659: 1, 0.16081068888768874: 1, 0.16080920015558403: 1, 0.16079930651970242: 1, 0.16078874457268705: 1, 0.16074689970826825: 1, 0.16074580830909657: 1, 0.16073265209988158: 1, 0.16072477579528369: 1, 0.16068672668573797: 1, 0.16065094763730545: 1, 0.16060205912418257: 1, 0.16058056961956613: 1, 0.16055479259260252: 1, 0.16052431998651392: 1, 0.16049183309848908: 1, 0.16045575863105049: 1, 0.16045490193988204: 1, 0.16039245985199158: 1, 0.16038915609100063: 1, 0.16037667266836031: 1, 0.16035223807308174: 1, 0.16033710432938392: 1, 0.16022969725535793: 1, 0.16022860345173348: 1, 0.16022684712902588: 1, 0.16021815520374921: 1, 0.16021212520756248: 1, 0.16018462730966024: 1, 0.16017128624833366: 1, 0.16013877465034365: 1, 0.1600987117946602: 1, 0.16002403867323353: 1, 0.16000501405925832: 1, 0.1599878227363426: 1, 0.15998652538056923: 1, 0.15997883940984223: 1, 0.15997590733071065: 1, 0.15997240279157163: 1, 0.15996212153088335: 1, 0.15992658093248519: 1, 0.15989504415408201: 1, 0.15988879869499445: 1, 0.15987499381482542: 1, 0.15987263272905444: 1, 0.15981784789736225: 1, 0.15981272436905386: 1, 0.1598122670146139: 1, 0.15980849309770354: 1, 0.15968977053395583: 1, 0.15967911258220699: 1, 0.15965662729349286: 1, 0.15962654044996524: 1, 0.15961308988023898: 1, 0.15957975822704468: 1, 0.15957906602050942: 1, 0.15956423347264673: 1, 0.15954774295721583: 1, 0.1595451037356628: 1, 0.15951678892525795: 1, 0.15949389696447502: 1, 0.15945445222717602: 1, 0.15945390854265101: 1, 0.1594446715195364: 1, 0.1594324633780819: 1, 0.1594317876371289: 1, 0.15942841508352168: 1, 0.1594082931341087: 1, 0.15940672327069369: 1, 0.15940421387629464: 1, 0.15938973241365356: 1, 0.1593837543567494: 1, 0.15938244054131501: 1, 0.15938040648685853: 1, 0.15935557443144566: 1, 0.15934492211102813: 1, 0.15934081789608301: 1, 0.1593279928036149: 1, 0.15932728803424645: 1, 0.15931518702169459: 1, 0.1593087154280706: 1, 0.15930209921734048: 1, 0.1592999003766655: 1, 0.15925863486214073: 1, 0.15925038428855748: 1, 0.15924158250889078: 1, 0.15919883458042619: 1, 0.15915837069005528: 1, 0.15914662729649112: 1, 0.15913784996094443: 1, 0.15909779543462227: 1, 0.15909398851523704: 1, 0.15907769325089585: 1, 0.15906975063244549: 1, 0.15901931330149063: 1, 0.15900964914531029: 1, 0.15900214753657974: 1, 0.15899033486554784: 1, 0.15898496183497576: 1, 0.15898258247627842: 1, 0.15893694424442451: 1, 0.15889696287646035: 1, 0.15886099866410025: 1, 0.1588417180394075: 1, 0.15881412558318442: 1, 0.15879414015059398: 1, 0.15878947562351878: 1, 0.15878535963715362: 1, 0.15878190685748897: 1, 0.15876661254777671: 1, 0.1587459455921969: 1, 0.15873589865307539: 1, 0.15872674534820783: 1, 0.15869245265219634: 1, 0.15864950832810382: 1, 0.15862736654261853: 1, 0.15861548929773403: 1, 0.15858859164801475: 1, 0.1585846928660159: 1, 0.15856674356691314: 1, 0.15854940982411495: 1, 0.15854791099584961: 1, 0.15852062229997246: 1, 0.15851095849655206: 1, 0.15851067009147665: 1, 0.15848438715056876: 1, 0.15845357155185832: 1, 0.15841834429103149: 1, 0.15841276980181659: 1, 0.15841231247259163: 1, 0.15841142936190136: 1, 0.15840830397453881: 1, 0.15837534586564: 1, 0.15837120758086456: 1, 0.15832528557336747: 1, 0.15832494801576541: 1, 0.15830996875952927: 1, 0.15830427861242322: 1, 0.1582696378708531: 1, 0.15825923018468246: 1, 0.15825158754932148: 1, 0.15823631485990086: 1, 0.15821187557492042: 1, 0.15820692061017277: 1, 0.15820553507128685: 1, 0.15819563098469969: 1, 0.15816841330801898: 1, 0.15816057067240985: 1, 0.15815150036537717: 1, 0.15813691430662408: 1, 0.15810197066787615: 1, 0.15808011245172957: 1, 0.15807995702890151: 1, 0.15806761091680516: 1, 0.15806449549161666: 1, 0.15805433011600387: 1, 0.1580476337589006: 1, 0.15804419832138675: 1, 0.15804247803787624: 1, 0.15804213800623565: 1, 0.15803777669049596: 1, 0.15802720288519417: 1, 0.15801973442607356: 1, 0.15800524721989515: 1, 0.15799891136035926: 1, 0.15799798476597371: 1, 0.15797544004453762: 1, 0.1579588203740161: 1, 0.15794451007748411: 1, 0.15793027840853935: 1, 0.15791830756388842: 1, 0.15791706972669831: 1, 0.15790687622533262: 1, 0.15790103478599843: 1, 0.15789788258777238: 1, 0.15786780917732185: 1, 0.15784885086820122: 1, 0.15782488995088043: 1, 0.15782161160317268: 1, 0.15781256414462524: 1, 0.15780218120488423: 1, 0.15774113317038749: 1, 0.15770726865536552: 1, 0.15770480965650188: 1, 0.15770113148416529: 1, 0.15767132897498026: 1, 0.15766656456307207: 1, 0.15766191156357323: 1, 0.15763012757462508: 1, 0.15761177408357227: 1, 0.15758923550957712: 1, 0.15758868926166153: 1, 0.15757035812630074: 1, 0.15756663118325964: 1, 0.15755141804776213: 1, 0.15754194840712715: 1, 0.15753921517657105: 1, 0.15753480307433612: 1, 0.15751710092975804: 1, 0.1575148787929847: 1, 0.1574997882556044: 1, 0.15747656936233018: 1, 0.15745563665463055: 1, 0.15745051156865733: 1, 0.15744925672079915: 1, 0.15738414909112611: 1, 0.15736299619230862: 1, 0.15735243308946265: 1, 0.15733601450934662: 1, 0.15733234480486455: 1, 0.1573221127717957: 1, 0.15731313959322507: 1, 0.15728730499943486: 1, 0.15728435986037304: 1, 0.15725767455111642: 1, 0.157247837163841: 1, 0.15723432582013855: 1, 0.15719610456235841: 1, 0.15719440319373912: 1, 0.15715130315750064: 1, 0.15712569202859078: 1, 0.15711164285133056: 1, 0.15708873453378597: 1, 0.15707238678828014: 1, 0.15705916957162128: 1, 0.15703582059813564: 1, 0.15702835014608985: 1, 0.15701032702429843: 1, 0.15699688030709402: 1, 0.15699211086636861: 1, 0.15698299300761481: 1, 0.15698256777314173: 1, 0.15697545110988798: 1, 0.15697453894301266: 1, 0.15693263598119969: 1, 0.15692770343691897: 1, 0.15692314515936087: 1, 0.15687203718146234: 1, 0.15683638287065416: 1, 0.15683544452884554: 1, 0.15681507686202284: 1, 0.15680929419575004: 1, 0.15680830076034716: 1, 0.15679040677677361: 1, 0.15678546060829807: 1, 0.15677291787029818: 1, 0.15676162461008783: 1, 0.15673275347554622: 1, 0.15673158567983719: 1, 0.15672189000354808: 1, 0.15672128003744126: 1, 0.15671731689457169: 1, 0.15669674614240689: 1, 0.15669447031853648: 1, 0.15669057565395647: 1, 0.15668414573758688: 1, 0.15668361485180554: 1, 0.15666415768395056: 1, 0.15665417631323089: 1, 0.15661776178056114: 1, 0.15661405085947927: 1, 0.15661244218805745: 1, 0.15658673822784641: 1, 0.15656948089767705: 1, 0.15655539114785538: 1, 0.15655188619934784: 1, 0.15655087406834639: 1, 0.15654638150014313: 1, 0.15654369186759731: 1, 0.15649135354193308: 1, 0.15648558776479179: 1, 0.15648432896737846: 1, 0.15648408679405043: 1, 0.15648250000564073: 1, 0.15646665157465986: 1, 0.15644909864026241: 1, 0.15644088851918633: 1, 0.15643860891625971: 1, 0.15641069364817528: 1, 0.1564098343460999: 1, 0.15639504505703375: 1, 0.15632562140423045: 1, 0.15632403974499165: 1, 0.15630152960594287: 1, 0.15628976163118208: 1, 0.15628657709601379: 1, 0.15627849636460153: 1, 0.15626523221258251: 1, 0.15626072872168417: 1, 0.15624573955250506: 1, 0.15622632122019134: 1, 0.15617969203542811: 1, 0.1561754415966595: 1, 0.15614234316573597: 1, 0.15609588803899094: 1, 0.15605307982979685: 1, 0.1560468238025409: 1, 0.1560344019375357: 1, 0.15602434975879459: 1, 0.15599342165237121: 1, 0.15598733388576874: 1, 0.15597828167113437: 1, 0.15596014213611384: 1, 0.15593320037121208: 1, 0.15592133999636484: 1, 0.15588685635000182: 1, 0.15588206571654145: 1, 0.15582544106190729: 1, 0.15581684675748819: 1, 0.15580237507372863: 1, 0.15578010999915626: 1, 0.15575290320358978: 1, 0.15574703789596267: 1, 0.15573486199135181: 1, 0.15573409478415998: 1, 0.15572734649113248: 1, 0.15572447466109515: 1, 0.15569696469602096: 1, 0.15567267616995889: 1, 0.15566762349863772: 1, 0.15566397392327455: 1, 0.15565039687676627: 1, 0.15564398306960439: 1, 0.15562035572602187: 1, 0.15560561368575243: 1, 0.15560337726378534: 1, 0.15559001379572085: 1, 0.15558307205194444: 1, 0.15557151803088262: 1, 0.15554740608996243: 1, 0.15553720567091772: 1, 0.15550468423844988: 1, 0.15547971942526678: 1, 0.15547477225316622: 1, 0.15545582543759379: 1, 0.15541925203894938: 1, 0.15540870632248133: 1, 0.15539259468217625: 1, 0.15539244432727056: 1, 0.15537096992260085: 1, 0.15533890366006237: 1, 0.15532551921861995: 1, 0.15529700511770636: 1, 0.15527840401693022: 1, 0.15526850602118716: 1, 0.15525913649253317: 1, 0.15519417774023719: 1, 0.15516507293014886: 1, 0.15516016959617418: 1, 0.15514236922640964: 1, 0.15512848549420724: 1, 0.15511736238663246: 1, 0.15511639264333241: 1, 0.15509765019126409: 1, 0.15508819848034977: 1, 0.15508476980828659: 1, 0.15506220864793527: 1, 0.15498907031051923: 1, 0.154981119897417: 1, 0.15496179710055988: 1, 0.15495897955993501: 1, 0.15492596327743494: 1, 0.15490692499830702: 1, 0.1548913223621656: 1, 0.15487859040856114: 1, 0.15487459618012944: 1, 0.15486285335170386: 1, 0.15486108595826589: 1, 0.1548585931753591: 1, 0.15485648881949884: 1, 0.15479693483900658: 1, 0.15479510938790358: 1, 0.15479327329056386: 1, 0.15478515402136531: 1, 0.1547772308176748: 1, 0.15475202220257905: 1, 0.15474932956820997: 1, 0.15471758313540873: 1, 0.15470998268831337: 1, 0.15470571997961904: 1, 0.15469792851186309: 1, 0.15468423167133119: 1, 0.15466896825915746: 1, 0.15465029312937131: 1, 0.15461705796543723: 1, 0.15458481013973341: 1, 0.1545639035389966: 1, 0.15455815329317496: 1, 0.15455258112865511: 1, 0.1545130977261881: 1, 0.15444459163260676: 1, 0.15444308833383485: 1, 0.15444125386895902: 1, 0.1544407250860074: 1, 0.15442813870523778: 1, 0.15438604243725831: 1, 0.15437994737177507: 1, 0.15435615864818517: 1, 0.15434768253549516: 1, 0.15433814469458898: 1, 0.15432571705990192: 1, 0.15430435809298981: 1, 0.1542986218694396: 1, 0.15426950543686052: 1, 0.15426575086976127: 1, 0.15421499047421627: 1, 0.15415318706786454: 1, 0.15415233647364654: 1, 0.15412478145933575: 1, 0.1540909733841811: 1, 0.15407680017363182: 1, 0.15406290295653202: 1, 0.15405732721754742: 1, 0.154045176462733: 1, 0.15401817457446051: 1, 0.15397248190261878: 1, 0.15390326792872389: 1, 0.15387746721588291: 1, 0.15387603828351179: 1, 0.15379312121986841: 1, 0.15377622044545158: 1, 0.15375385876383943: 1, 0.15372639184927009: 1, 0.15372159427631715: 1, 0.15371980886670927: 1, 0.15371776418750571: 1, 0.15370265189746843: 1, 0.15366863916776055: 1, 0.15366353839686839: 1, 0.15366326744250919: 1, 0.15362973900519125: 1, 0.15361768324024561: 1, 0.15361545028042881: 1, 0.15356442155023775: 1, 0.15355084692501739: 1, 0.15354922275391175: 1, 0.15349021941756461: 1, 0.15347424536576937: 1, 0.15345947538462137: 1, 0.15345188235767532: 1, 0.15342352543695323: 1, 0.15341289615518047: 1, 0.15339722883266627: 1, 0.15338776991019865: 1, 0.1533821144766043: 1, 0.15330412206129418: 1, 0.15325711920549365: 1, 0.15325567029835013: 1, 0.15323886722905986: 1, 0.15320507254328053: 1, 0.15319427644805331: 1, 0.15319425126452654: 1, 0.15319091710392913: 1, 0.15318446130192084: 1, 0.153179759094796: 1, 0.15314964716537285: 1, 0.1531215471694532: 1, 0.15310908752445346: 1, 0.15309369878154891: 1, 0.15306208630183651: 1, 0.15304885206008861: 1, 0.15303168923737051: 1, 0.15299181666441194: 1, 0.15298368987423777: 1, 0.15297767073035456: 1, 0.15297518830540219: 1, 0.15296834401964357: 1, 0.15296233703287648: 1, 0.15295950301047623: 1, 0.15293334159763858: 1, 0.15292867388237721: 1, 0.15290678019881887: 1, 0.15288931533562605: 1, 0.15287432630339748: 1, 0.15287268799104237: 1, 0.15283573838212192: 1, 0.15282144135131612: 1, 0.15280745913261617: 1, 0.15279171804509817: 1, 0.15279120332343779: 1, 0.1527769047979628: 1, 0.15276761054086824: 1, 0.1527392341684263: 1, 0.15273919465172572: 1, 0.15273178109577359: 1, 0.15265871274148882: 1, 0.15265199495543547: 1, 0.15264829441419395: 1, 0.15263398195240072: 1, 0.15257893443976289: 1, 0.15255490636042879: 1, 0.15254489963422774: 1, 0.1525240317956166: 1, 0.1525215528082304: 1, 0.15247036179744269: 1, 0.15241751461861328: 1, 0.15241342886408143: 1, 0.15238923413677796: 1, 0.15235502520537528: 1, 0.15232047361255818: 1, 0.15228502156576268: 1, 0.15227595997831492: 1, 0.15226959558969294: 1, 0.15225943176520301: 1, 0.15225889588066538: 1, 0.15223992004855982: 1, 0.15223692296586996: 1, 0.15221859748575756: 1, 0.15221186893058267: 1, 0.15220223297707294: 1, 0.15219068331306596: 1, 0.15218103718643242: 1, 0.15216651400981165: 1, 0.1521526144542632: 1, 0.1521478954658235: 1, 0.15212045448494868: 1, 0.15209120139065915: 1, 0.15208628060058602: 1, 0.15204050428710936: 1, 0.15201964512562505: 1, 0.15197848247721163: 1, 0.15194973533046735: 1, 0.15194218487172659: 1, 0.1519417591053035: 1, 0.1519120192811349: 1, 0.15187240146060416: 1, 0.15187046767576604: 1, 0.15180201682597594: 1, 0.15180027093336027: 1, 0.15171652892671775: 1, 0.15171408422416741: 1, 0.15170466201374821: 1, 0.15168913038106663: 1, 0.15167663587585034: 1, 0.15165149744142181: 1, 0.15164140420903754: 1, 0.1516408939313742: 1, 0.15163692214533586: 1, 0.15162299141934366: 1, 0.15161539468402108: 1, 0.15158516360470825: 1, 0.15155009548871898: 1, 0.15154216704717849: 1, 0.15147482511658203: 1, 0.15146437260014226: 1, 0.15145475492688776: 1, 0.1514540578865885: 1, 0.15142566899308804: 1, 0.15140748775267004: 1, 0.15138812174422589: 1, 0.15136571176957697: 1, 0.15135060290131225: 1, 0.15132691803755349: 1, 0.15131916701525189: 1, 0.15126114455575848: 1, 0.15123210610467167: 1, 0.15120897634689859: 1, 0.15119368544280146: 1, 0.15118972753656798: 1, 0.15118509040529154: 1, 0.15116640740709386: 1, 0.15115203945608116: 1, 0.15114579289864355: 1, 0.15114441246664995: 1, 0.15109356550227432: 1, 0.15109275116484855: 1, 0.15106107330068377: 1, 0.15103784563759798: 1, 0.15103289436283296: 1, 0.15103141344011156: 1, 0.15101963491321471: 1, 0.15101535546764308: 1, 0.15099978201719214: 1, 0.15093354464691081: 1, 0.15093023727834312: 1, 0.15091278696739091: 1, 0.15088347176982284: 1, 0.15087660023041508: 1, 0.15084168958949892: 1, 0.15083222983673067: 1, 0.15083155401577325: 1, 0.15083108271465903: 1, 0.15082315771824292: 1, 0.15080323851555946: 1, 0.15075381649750894: 1, 0.15074576366224848: 1, 0.15074436297419058: 1, 0.15073857015596359: 1, 0.15073632737735446: 1, 0.15072004483249993: 1, 0.1507012253296911: 1, 0.15059132002081266: 1, 0.15057295147721747: 1, 0.1505594750024731: 1, 0.15053194275022028: 1, 0.15051971847893322: 1, 0.15050562621356461: 1, 0.15049571286343205: 1, 0.150470875191516: 1, 0.15046572920479523: 1, 0.15045535591465742: 1, 0.15044660358545434: 1, 0.15044167089879948: 1, 0.15043031488376313: 1, 0.15042609275849009: 1, 0.15040906213024369: 1, 0.15039632419183022: 1, 0.15038425240556133: 1, 0.1503540686368616: 1, 0.15035081418344798: 1, 0.15033545993784625: 1, 0.15031660747236614: 1, 0.15030662224087443: 1, 0.15030013041332416: 1, 0.1502940171303821: 1, 0.15025497242263525: 1, 0.15024575641857377: 1, 0.15021881444677035: 1, 0.15018569207718857: 1, 0.15014394932864786: 1, 0.15013475814144603: 1, 0.15012361937666022: 1, 0.1501043015357971: 1, 0.15009066672182392: 1, 0.15003054116143591: 1, 0.15002059348994695: 1, 0.15002005486821834: 1, 0.15000674730683594: 1, 0.150005769578025: 1, 0.1500046316523565: 1, 0.1499849617112767: 1, 0.1499710976130795: 1, 0.1499649170429728: 1, 0.14995847768892889: 1, 0.14994048806753468: 1, 0.14993681718994734: 1, 0.14990527794827133: 1, 0.14989404661997247: 1, 0.14987291394056679: 1, 0.14984404693754325: 1, 0.14984359426771049: 1, 0.14972091920588415: 1, 0.14970483138356783: 1, 0.14964366226992279: 1, 0.14962545527802895: 1, 0.14957234768747801: 1, 0.1495694765524406: 1, 0.149561084304912: 1, 0.14954646104218949: 1, 0.14953927951713783: 1, 0.14951458161240244: 1, 0.14949788384389218: 1, 0.14949392199838513: 1, 0.14948852592104203: 1, 0.14948361887881248: 1, 0.14947441293321409: 1, 0.14941081698803277: 1, 0.14940622664276698: 1, 0.14939350922134353: 1, 0.14938532167124258: 1, 0.14937692192359403: 1, 0.14935953118509104: 1, 0.14934854380181486: 1, 0.14934653809819445: 1, 0.14934651012458916: 1, 0.14933956047013627: 1, 0.14933711753634074: 1, 0.14930899711431134: 1, 0.14929796660139324: 1, 0.14928518433156207: 1, 0.14925586103451433: 1, 0.14922124634432851: 1, 0.14920983514707106: 1, 0.14920930842180319: 1, 0.14915587681438236: 1, 0.14915435355920598: 1, 0.14915106029772435: 1, 0.14914505470194858: 1, 0.14912215216254365: 1, 0.14910569018762218: 1, 0.14909595690446695: 1, 0.14905735063406306: 1, 0.14895049998750604: 1, 0.14894004419026249: 1, 0.14890967080185852: 1, 0.14889849494392263: 1, 0.14888517624833519: 1, 0.14887261239588323: 1, 0.14886158548630204: 1, 0.14885474713579472: 1, 0.1488306298542037: 1, 0.14882635900044311: 1, 0.14881449998886701: 1, 0.14880667706117592: 1, 0.14878926365623163: 1, 0.14878585149348503: 1, 0.14877627561032575: 1, 0.14876238531755656: 1, 0.14874127321651739: 1, 0.14872723084566611: 1, 0.14867628121471615: 1, 0.14865922156115977: 1, 0.14865301649036311: 1, 0.14865193958707551: 1, 0.14865128041076392: 1, 0.14864329904330312: 1, 0.1486351770642835: 1, 0.14862449947920367: 1, 0.14858861834341058: 1, 0.14855567499660599: 1, 0.14852390626890363: 1, 0.14838421146011513: 1, 0.14835612958964753: 1, 0.14833687205744694: 1, 0.14833023250901212: 1, 0.14832299659898865: 1, 0.14831464660351606: 1, 0.14827101271701215: 1, 0.14826469743632642: 1, 0.14823578032711254: 1, 0.14821021264323031: 1, 0.14820946020854631: 1, 0.1481760029778347: 1, 0.14817145730780507: 1, 0.14816995009576792: 1, 0.14816697716004015: 1, 0.14813949781717969: 1, 0.14813262008169342: 1, 0.14812877021458706: 1, 0.14812261944057953: 1, 0.1481195709363699: 1, 0.1481194918318218: 1, 0.14810094886497974: 1, 0.14797700862127136: 1, 0.14796996826295736: 1, 0.14796906318295688: 1, 0.14796536469005064: 1, 0.147894618532595: 1, 0.14786500536770883: 1, 0.14783966199725909: 1, 0.14782338793195024: 1, 0.14780978795334077: 1, 0.14780664445052691: 1, 0.1478060997786601: 1, 0.14780526921092235: 1, 0.14780184698783497: 1, 0.14776803247446713: 1, 0.14773462358686862: 1, 0.14773376075517983: 1, 0.14773211842579195: 1, 0.14769126489615142: 1, 0.14767522023954491: 1, 0.14767352662133532: 1, 0.14766440659676358: 1, 0.14763875318352346: 1, 0.14763365172088319: 1, 0.14761331292858798: 1, 0.14758872378331614: 1, 0.14757938935045289: 1, 0.14746957815834771: 1, 0.14746821669892649: 1, 0.14746248808631993: 1, 0.14739310055530291: 1, 0.1473731380393872: 1, 0.14736261854666954: 1, 0.14736074533685756: 1, 0.14735608656800231: 1, 0.1473439595046459: 1, 0.14732399154323486: 1, 0.14721556956848778: 1, 0.14719875995411405: 1, 0.14719702469419041: 1, 0.14711585023813048: 1, 0.14709301385352011: 1, 0.14707743658660474: 1, 0.14704030794534664: 1, 0.14703680143750236: 1, 0.14703260654464362: 1, 0.14703168064877911: 1, 0.14701229050208203: 1, 0.14699219201149066: 1, 0.14698210816979124: 1, 0.14697954324352144: 1, 0.14697425183997095: 1, 0.14695999601279322: 1, 0.1469510763054892: 1, 0.14693875653886268: 1, 0.14687467485988018: 1, 0.14684699466330672: 1, 0.14680683571932412: 1, 0.14680520434634498: 1, 0.14673746210977895: 1, 0.14672512460874426: 1, 0.14670395149031745: 1, 0.14669359170232729: 1, 0.14661497611506019: 1, 0.14661247268600433: 1, 0.14660168442436719: 1, 0.14657920404810479: 1, 0.14656470570452934: 1, 0.14655122041735932: 1, 0.14654642584048061: 1, 0.14654435970003904: 1, 0.14652656999250593: 1, 0.14648676029375071: 1, 0.14648335273841934: 1, 0.14645445341071939: 1, 0.14644988076975218: 1, 0.14643973080041262: 1, 0.14643664460345496: 1, 0.14642496555836598: 1, 0.14641346951338136: 1, 0.1463781012600622: 1, 0.14637753849820076: 1, 0.14636796347671455: 1, 0.14636609270190937: 1, 0.14635862596598834: 1, 0.14635105221706202: 1, 0.14631641645448457: 1, 0.1463055161540443: 1, 0.14626224635044044: 1, 0.14623964730230912: 1, 0.14623728653556448: 1, 0.14623010055500668: 1, 0.14622865834895016: 1, 0.14622114647287499: 1, 0.14619428844205318: 1, 0.14619341330693575: 1, 0.1461747853350599: 1, 0.14616766008202178: 1, 0.14614902274324937: 1, 0.14613520714124512: 1, 0.1461274288868587: 1, 0.14612633484731166: 1, 0.14612631570766194: 1, 0.14609190555450721: 1, 0.14608599094944294: 1, 0.1460857030356362: 1, 0.14605408792134814: 1, 0.14605083518391332: 1, 0.14604539395282132: 1, 0.14603421615971629: 1, 0.14600107368243476: 1, 0.14594232974023019: 1, 0.14591266848319259: 1, 0.14589895263025043: 1, 0.14589379287768972: 1, 0.14588945618572718: 1, 0.14588455297754382: 1, 0.14588078286267414: 1, 0.14587650098541563: 1, 0.14587549890744808: 1, 0.14585349798448669: 1, 0.14584312800131916: 1, 0.14583362683495582: 1, 0.14581940434361684: 1, 0.14580248386149483: 1, 0.1457663011121737: 1, 0.14576418789274267: 1, 0.14575187015537527: 1, 0.14575170212542185: 1, 0.14568338981848353: 1, 0.14568269364580658: 1, 0.14566376085063495: 1, 0.1456613918417605: 1, 0.14564902004427555: 1, 0.14563219559645374: 1, 0.14562798371486688: 1, 0.14562094722827088: 1, 0.14561994424468178: 1, 0.14561314771439668: 1, 0.14560063604900667: 1, 0.14556836122269279: 1, 0.14556768014893093: 1, 0.14554021276470813: 1, 0.14552012466004785: 1, 0.14551208719678924: 1, 0.14548610938211481: 1, 0.14543946559604359: 1, 0.14543181920882181: 1, 0.14543174935858807: 1, 0.14543121659961239: 1, 0.14542035708916487: 1, 0.14541952652592563: 1, 0.14541452353813522: 1, 0.1453962421323978: 1, 0.14539109544882145: 1, 0.14538921826369902: 1, 0.14537544259798529: 1, 0.14536827730532359: 1, 0.14535735295333366: 1, 0.14532201554564242: 1, 0.14532166625971413: 1, 0.14530776112552574: 1, 0.1452947224709091: 1, 0.14529361866944496: 1, 0.14526361300894025: 1, 0.14523067648660937: 1, 0.14521939935951764: 1, 0.14516414804628558: 1, 0.14515825819218448: 1, 0.1451065294948447: 1, 0.14510046363561349: 1, 0.14507991010868576: 1, 0.14507132250358501: 1, 0.14497930276109114: 1, 0.14497053203009416: 1, 0.14493716516092603: 1, 0.14493178316491581: 1, 0.14493047639233908: 1, 0.14492991677983785: 1, 0.14492769101279598: 1, 0.14490280264789759: 1, 0.14488198118147874: 1, 0.14487164248293619: 1, 0.14480150448242285: 1, 0.14477448197741236: 1, 0.14476956077380307: 1, 0.14476731365179291: 1, 0.14473488041613988: 1, 0.14473233178012251: 1, 0.14472032536133475: 1, 0.14471094911375601: 1, 0.14470144018754294: 1, 0.14468748078770149: 1, 0.14468410879267338: 1, 0.1446416615455855: 1, 0.14463065177748105: 1, 0.14461509337795547: 1, 0.14459631502967202: 1, 0.14459465990903714: 1, 0.14459202614360564: 1, 0.14459004311881354: 1, 0.14458253671798377: 1, 0.1445790749662228: 1, 0.14456960067939456: 1, 0.14452146717412392: 1, 0.14451557035857854: 1, 0.14450522743742655: 1, 0.14447231711306477: 1, 0.14446673249130032: 1, 0.14444702205387047: 1, 0.14440358397425596: 1, 0.14439099151864956: 1, 0.14435371645292142: 1, 0.14434646782776767: 1, 0.14432270289278878: 1, 0.14432119433886387: 1, 0.1443181617577593: 1, 0.14431562806436748: 1, 0.14431148648417236: 1, 0.14430154264827999: 1, 0.14430125234921848: 1, 0.14429449091630467: 1, 0.14429211992610513: 1, 0.14427804264782446: 1, 0.14419787117257293: 1, 0.1441719785471107: 1, 0.14416459228031769: 1, 0.14416325353884388: 1, 0.14416149168742573: 1, 0.1441550475293405: 1, 0.14413674158598958: 1, 0.1441352107920548: 1, 0.14411887382217317: 1, 0.14411378560969343: 1, 0.1441023630712755: 1, 0.14410112183801049: 1, 0.14408014309687775: 1, 0.14406087166877959: 1, 0.14405709954675525: 1, 0.14405182186511595: 1, 0.14404590044988363: 1, 0.14402757595545057: 1, 0.14399766293780503: 1, 0.14399644694088645: 1, 0.14399269616502763: 1, 0.14398264228032162: 1, 0.14396566808552913: 1, 0.14393826678763516: 1, 0.14393527398155623: 1, 0.14386066671157277: 1, 0.14385982517760251: 1, 0.14385737586579933: 1, 0.14382871623270302: 1, 0.14382432245113283: 1, 0.14379262573414808: 1, 0.14379122972887509: 1, 0.14377171859872334: 1, 0.14376580761188279: 1, 0.14376480864410554: 1, 0.14373675980729592: 1, 0.14373622720612103: 1, 0.14372679207839315: 1, 0.14370702098882435: 1, 0.14367441824598406: 1, 0.14366627811027927: 1, 0.14365552791655789: 1, 0.14358273005593908: 1, 0.1435729224907365: 1, 0.14356160532965276: 1, 0.14356146329312219: 1, 0.14346514078920333: 1, 0.14346043546095846: 1, 0.14343791939566611: 1, 0.14342601108474506: 1, 0.14340848936518732: 1, 0.14340623645633799: 1, 0.14340293786161995: 1, 0.14334169017148587: 1, 0.14333232750102004: 1, 0.14330504721556184: 1, 0.14330498861233007: 1, 0.14323349481420325: 1, 0.1432320985464236: 1, 0.14318891345577667: 1, 0.14316992392580624: 1, 0.14316453277119245: 1, 0.14314526344025583: 1, 0.14311815750848483: 1, 0.14309928731468183: 1, 0.14309689311186122: 1, 0.14306753486076992: 1, 0.14306155774339455: 1, 0.14303981195225979: 1, 0.14303204562841562: 1, 0.14299807554762062: 1, 0.14299103883013922: 1, 0.14296865348823559: 1, 0.14294705793539977: 1, 0.14293849021869834: 1, 0.1429198116264597: 1, 0.14289944286085787: 1, 0.14289168329722887: 1, 0.14288264593767014: 1, 0.14288261543998559: 1, 0.14287614683194855: 1, 0.14285762110679831: 1, 0.14285535223180221: 1, 0.1428549735779219: 1, 0.14283181667149991: 1, 0.14281239073379084: 1, 0.1428094998743647: 1, 0.14279807042892473: 1, 0.14275439182131452: 1, 0.14274458105949139: 1, 0.14272513207420043: 1, 0.14271249316890169: 1, 0.14271186595469396: 1, 0.14271076349737535: 1, 0.14268705919085997: 1, 0.14268441782238406: 1, 0.14266536546008482: 1, 0.14265393717541064: 1, 0.14265230266421733: 1, 0.14264873067286554: 1, 0.14262939401547672: 1, 0.14262700533553671: 1, 0.14262177523501021: 1, 0.14261079606334964: 1, 0.14260598281997688: 1, 0.14260315331991436: 1, 0.14255455634636788: 1, 0.14255396819547103: 1, 0.14255036822308423: 1, 0.14249113494551929: 1, 0.14248426911936157: 1, 0.14247331374162397: 1, 0.14245182973951864: 1, 0.14244663009344716: 1, 0.14241965885692409: 1, 0.14241896324357689: 1, 0.14241672195018723: 1, 0.14240404845704002: 1, 0.14238156728556983: 1, 0.14237044028222598: 1, 0.14236901542566868: 1, 0.14236152774074637: 1, 0.14235030314472027: 1, 0.14234671316146827: 1, 0.14233927723935313: 1, 0.14233862169812334: 1, 0.14233552864726914: 1, 0.14227214726644866: 1, 0.14225902046607472: 1, 0.14223995760011166: 1, 0.14223923331027555: 1, 0.14223631632678049: 1, 0.14222016198207124: 1, 0.14220805146125381: 1, 0.14220800353726351: 1, 0.14220574289799012: 1, 0.14220493236403098: 1, 0.14218735715719641: 1, 0.14217458136138258: 1, 0.14217174939688607: 1, 0.14211616684024936: 1, 0.14210636833389059: 1, 0.14207829583796425: 1, 0.14207340444235544: 1, 0.14207252802440443: 1, 0.14203833984146363: 1, 0.14202808989711407: 1, 0.1420060694225049: 1, 0.14199679554451453: 1, 0.14198858221292673: 1, 0.14198856212375099: 1, 0.14197938290314729: 1, 0.14195910235706072: 1, 0.14194631027273449: 1, 0.14189658207137965: 1, 0.14189147064496216: 1, 0.14188924373351969: 1, 0.14185403981200928: 1, 0.14185030008076649: 1, 0.14183893408143147: 1, 0.14182493186574446: 1, 0.14178860636314908: 1, 0.14175784267686406: 1, 0.141752667927209: 1, 0.14174874331749499: 1, 0.14174192984589723: 1, 0.14172866014513136: 1, 0.14172742803919183: 1, 0.14168583599976778: 1, 0.14161303879375214: 1, 0.14157211401919037: 1, 0.1415350856394291: 1, 0.14153270151336814: 1, 0.14152732253470976: 1, 0.14152373234866758: 1, 0.14147136746648825: 1, 0.14143942546176763: 1, 0.14143816334084547: 1, 0.14143460849917039: 1, 0.14143028771597907: 1, 0.14141490179219929: 1, 0.14141025878709934: 1, 0.14137003508448487: 1, 0.14136687834015432: 1, 0.14136151496680197: 1, 0.14134660947780292: 1, 0.14134316172888214: 1, 0.14132472073714331: 1, 0.14132324343327862: 1, 0.14125968951859497: 1, 0.14124956177369491: 1, 0.14124922109198196: 1, 0.14124281644137021: 1, 0.14123534561390685: 1, 0.14122749514191904: 1, 0.14121882088970081: 1, 0.14120953684555909: 1, 0.14120415070514547: 1, 0.14118910794343362: 1, 0.14117697260485104: 1, 0.14116277555585574: 1, 0.14115059948213199: 1, 0.14113828666657863: 1, 0.14112809420484212: 1, 0.14112483913098789: 1, 0.14111231072978164: 1, 0.14105957775602698: 1, 0.14101591681033021: 1, 0.14100431351829282: 1, 0.14099185950769397: 1, 0.14098792037698823: 1, 0.14098198399114084: 1, 0.14095146375352349: 1, 0.14092814890728494: 1, 0.14089141656503532: 1, 0.14085848020428207: 1, 0.14085198335280405: 1, 0.14083443326062003: 1, 0.14078780224470072: 1, 0.14077573842735963: 1, 0.14076937536628367: 1, 0.14076509903881049: 1, 0.14073684509296791: 1, 0.14073601186615772: 1, 0.14072411699299436: 1, 0.14071966420747392: 1, 0.14070719390542907: 1, 0.14068487582039918: 1, 0.14068088644660695: 1, 0.14065909771982898: 1, 0.14065026541435963: 1, 0.14064242129798485: 1, 0.14063988395475463: 1, 0.14061906143868483: 1, 0.14060572511086378: 1, 0.140600136220737: 1, 0.14058406801282891: 1, 0.14056943503556926: 1, 0.14056640893681355: 1, 0.14054350450537462: 1, 0.14054119832417225: 1, 0.14053723927908601: 1, 0.1405310676404268: 1, 0.14052752161369231: 1, 0.14052747870293672: 1, 0.1405182911528704: 1, 0.1404994368970566: 1, 0.14047573905740962: 1, 0.14043324118339223: 1, 0.14043101322698892: 1, 0.14042750047257321: 1, 0.14042170160980944: 1, 0.14039875842114896: 1, 0.14038921290160522: 1, 0.14035872430583227: 1, 0.14032322525292146: 1, 0.14031799176151469: 1, 0.14030446452160136: 1, 0.14030020767215551: 1, 0.1402585331992571: 1, 0.14025404713621617: 1, 0.14024440743314534: 1, 0.14023622916023429: 1, 0.14021861508858866: 1, 0.1402050119588282: 1, 0.14018044041412189: 1, 0.14017855290936482: 1, 0.14016380670145409: 1, 0.14016312331337633: 1, 0.14015824807971394: 1, 0.14014822862081447: 1, 0.14010861771543376: 1, 0.14010493658509815: 1, 0.14009410445704526: 1, 0.14006732843482111: 1, 0.14006536188691959: 1, 0.1400539674650125: 1, 0.14000899023784924: 1, 0.13997283254978712: 1, 0.13996320322615582: 1, 0.13996203289745296: 1, 0.13996098160567361: 1, 0.13995608442587976: 1, 0.13995399417247625: 1, 0.13994042133251308: 1, 0.13992356038855455: 1, 0.13985548539125062: 1, 0.13979551729084144: 1, 0.1397652474730009: 1, 0.13975013860959215: 1, 0.13974532120141808: 1, 0.13973031681149525: 1, 0.13970708631214276: 1, 0.13970465296606299: 1, 0.13964539073600482: 1, 0.13962778378832719: 1, 0.13962391722444434: 1, 0.13961524413333112: 1, 0.1396011489836971: 1, 0.13959411297158178: 1, 0.13958700505132415: 1, 0.13956029744676077: 1, 0.13955995979766445: 1, 0.13955546035215305: 1, 0.13954465811854638: 1, 0.13952731999458434: 1, 0.13952530850180928: 1, 0.13952513368089467: 1, 0.13949586822320367: 1, 0.13944330744435837: 1, 0.13944319644077149: 1, 0.13941393804940727: 1, 0.13940933870493946: 1, 0.13939779789740747: 1, 0.13937846909850804: 1, 0.13935388675595589: 1, 0.13935333186388368: 1, 0.13934027264788881: 1, 0.13929204720961294: 1, 0.13928815772062031: 1, 0.13927048895765703: 1, 0.13926233306053179: 1, 0.13918889717662339: 1, 0.13917977903692905: 1, 0.13916460839078632: 1, 0.13915446387754371: 1, 0.13913903221163582: 1, 0.13912621336984765: 1, 0.13912074121618817: 1, 0.13908954567165049: 1, 0.13907742014529961: 1, 0.13907387459488849: 1, 0.13907191656411069: 1, 0.13906896454785048: 1, 0.13906680111708353: 1, 0.13901038716845482: 1, 0.13900629997047187: 1, 0.13897275924666544: 1, 0.13896305045171722: 1, 0.13895491618454767: 1, 0.13895074075835734: 1, 0.13892674134585772: 1, 0.13892043583464014: 1, 0.13891551554131082: 1, 0.13887219655302196: 1, 0.13886692772405337: 1, 0.13886177090343976: 1, 0.13879147058746735: 1, 0.13878084531771848: 1, 0.13874921923085978: 1, 0.13874729885113493: 1, 0.13874110644715118: 1, 0.13874093646535074: 1, 0.13873952816522897: 1, 0.13873783453858682: 1, 0.13870185132645366: 1, 0.13867568350161635: 1, 0.13867416582729525: 1, 0.13863804935158883: 1, 0.13861136514666514: 1, 0.13860750115311743: 1, 0.138574451331543: 1, 0.1385648802750849: 1, 0.13856057557708365: 1, 0.13854898859951847: 1, 0.13854317083367954: 1, 0.13854175434036115: 1, 0.13853681919952085: 1, 0.13847227178443169: 1, 0.1384714614815403: 1, 0.13846133380992257: 1, 0.13846059561941229: 1, 0.13843457111129751: 1, 0.13839799438354411: 1, 0.13833339897153993: 1, 0.13832552346541904: 1, 0.13832281756305748: 1, 0.13827638555255956: 1, 0.13825533607982668: 1, 0.13823834733055615: 1, 0.1382274790166029: 1, 0.13821250872316432: 1, 0.13820629445867838: 1, 0.13819385636199938: 1, 0.13818004627791169: 1, 0.13817956502498308: 1, 0.13815506951073331: 1, 0.13814824182294713: 1, 0.13814679617222711: 1, 0.13814629482381263: 1, 0.13812458039130943: 1, 0.13812222623087753: 1, 0.13811179867961168: 1, 0.13809130838176872: 1, 0.13808806992639416: 1, 0.13807182869752002: 1, 0.13801453384522194: 1, 0.13799010841463288: 1, 0.13796794884407015: 1, 0.13796506771717573: 1, 0.1379612809058188: 1, 0.13795609447100249: 1, 0.13794404730935736: 1, 0.13793785149751711: 1, 0.13791799950386197: 1, 0.13786669780393215: 1, 0.13786397478886098: 1, 0.13783149689781415: 1, 0.13780923617609686: 1, 0.13779784728493533: 1, 0.13779434633633431: 1, 0.13778665090054976: 1, 0.13775793544350243: 1, 0.13772789131022495: 1, 0.13768901743337328: 1, 0.13767198193463456: 1, 0.13766270636747621: 1, 0.13760523227871141: 1, 0.1375941842484289: 1, 0.13758468114713537: 1, 0.13757480398301594: 1, 0.13755525047862077: 1, 0.13751524004826809: 1, 0.13750430942505901: 1, 0.13749744994684412: 1, 0.13747949583707395: 1, 0.13746270979032688: 1, 0.13744458981852709: 1, 0.13744208671832564: 1, 0.13741459270191481: 1, 0.13739769095450216: 1, 0.13736036763777557: 1, 0.13733708892219465: 1, 0.13732239745909094: 1, 0.13731344128249059: 1, 0.13728799884513054: 1, 0.13728384710211478: 1, 0.13726210193939239: 1, 0.13725628460141195: 1, 0.13725263645181476: 1, 0.13724598877296085: 1, 0.1372347399306719: 1, 0.13723228112346789: 1, 0.13720935109219373: 1, 0.1372000918661205: 1, 0.13718807204095734: 1, 0.13718153770498215: 1, 0.13713246351595368: 1, 0.13712776757082726: 1, 0.137125118912133: 1, 0.13711071493373228: 1, 0.13710954380601287: 1, 0.13710600413522323: 1, 0.13708541074627542: 1, 0.13705075121574406: 1, 0.13703299985381831: 1, 0.13702278708201196: 1, 0.13700007172031967: 1, 0.13697956445581699: 1, 0.13694507796352209: 1, 0.13691495644600457: 1, 0.1368880363006906: 1, 0.13686300128090242: 1, 0.13685365819771675: 1, 0.13684629930413952: 1, 0.13683631001212601: 1, 0.13681272918282833: 1, 0.13678969121953752: 1, 0.13677489151713412: 1, 0.13674461078655667: 1, 0.13673166936639355: 1, 0.13672295305411522: 1, 0.13669921745678451: 1, 0.13669564570912254: 1, 0.13667555513476226: 1, 0.13665374266186436: 1, 0.13662084519384926: 1, 0.13659938467065236: 1, 0.13658858454719019: 1, 0.1365778322250184: 1, 0.13656451369547207: 1, 0.13656214193705712: 1, 0.13651796710371758: 1, 0.13651421774190917: 1, 0.13651064636341684: 1, 0.13650480260525091: 1, 0.13649326496539932: 1, 0.13647964448515254: 1, 0.13647732401829507: 1, 0.13646898628363763: 1, 0.13640917982462961: 1, 0.13638161767199206: 1, 0.13635341526084482: 1, 0.1363483930019444: 1, 0.13632345784752492: 1, 0.13631302459499681: 1, 0.13630189862946743: 1, 0.13628411494023104: 1, 0.1362667296696439: 1, 0.13625040719694195: 1, 0.13623281376985114: 1, 0.13622656828950716: 1, 0.13620482152159585: 1, 0.136202225396096: 1, 0.13616300729823627: 1, 0.1361610398196211: 1, 0.13611819639981831: 1, 0.13610431386528346: 1, 0.13609675821023678: 1, 0.13609146973603944: 1, 0.1360742650916778: 1, 0.13605894496487161: 1, 0.13602495654158345: 1, 0.13599499308163565: 1, 0.13598222925050701: 1, 0.13598052046438699: 1, 0.13597435219879636: 1, 0.13595080221613043: 1, 0.13594173464038409: 1, 0.13587802898716592: 1, 0.13587144370310592: 1, 0.13586067296408819: 1, 0.1358603790024806: 1, 0.13585048231467411: 1, 0.13584059007307681: 1, 0.13583475346222565: 1, 0.13581791826862658: 1, 0.13580926400285973: 1, 0.13579636301310682: 1, 0.13578475952293889: 1, 0.13577817987790469: 1, 0.13576844503033703: 1, 0.13576401622898077: 1, 0.13575802395771877: 1, 0.13575080759760505: 1, 0.13573438622219391: 1, 0.13572998218885782: 1, 0.13571333334690003: 1, 0.13568225048620364: 1, 0.13567472099279565: 1, 0.13567030151720089: 1, 0.13564112861210145: 1, 0.13564058282902167: 1, 0.13563788686231587: 1, 0.13561710626932511: 1, 0.13559713716091981: 1, 0.13559060284874605: 1, 0.13558700571912122: 1, 0.13558229214593642: 1, 0.13556038356045785: 1, 0.1355377223791473: 1, 0.13552644729611596: 1, 0.13550010532585263: 1, 0.13549641367100659: 1, 0.13547973573024061: 1, 0.13547905227222778: 1, 0.13547887226018959: 1, 0.13547268341256408: 1, 0.13546743079638618: 1, 0.13544499348476458: 1, 0.1354159231281446: 1, 0.1354155439952823: 1, 0.13539695087545678: 1, 0.13538830943904448: 1, 0.13538373332575884: 1, 0.13538321789262028: 1, 0.13537819611449248: 1, 0.13534597578398105: 1, 0.13527290010801687: 1, 0.13526761741987756: 1, 0.13526096137870472: 1, 0.13523130669433389: 1, 0.13521741465666573: 1, 0.13519447037942026: 1, 0.13518171287001512: 1, 0.13516954050198016: 1, 0.13516554048511187: 1, 0.13516545375802896: 1, 0.13513881683688628: 1, 0.13509524137804663: 1, 0.1350929368859892: 1, 0.13505774217266311: 1, 0.13505439398283978: 1, 0.13505327703250811: 1, 0.13504986120614001: 1, 0.13501792764148421: 1, 0.13495126751894077: 1, 0.13493976466053484: 1, 0.13493896914783796: 1, 0.13492985268541879: 1, 0.13492916206098149: 1, 0.13492031021398898: 1, 0.13491853106868365: 1, 0.1349118920571209: 1, 0.13490099913408798: 1, 0.13486063343173663: 1, 0.13481338777501231: 1, 0.13480588687666548: 1, 0.13479987444501493: 1, 0.13478543143819685: 1, 0.13477925582869105: 1, 0.13476973201001377: 1, 0.1347548178010905: 1, 0.1347386159864522: 1, 0.13473723088696041: 1, 0.13471762429155665: 1, 0.13471570105910777: 1, 0.13471286647113481: 1, 0.13468720846980312: 1, 0.13468309438294826: 1, 0.13467156675238998: 1, 0.13466505293385472: 1, 0.13463885923756638: 1, 0.1346070686035257: 1, 0.13460019195141273: 1, 0.13459911629478877: 1, 0.13458636859315246: 1, 0.13458114577396391: 1, 0.13456559154513126: 1, 0.13454968106570125: 1, 0.13453123513980719: 1, 0.13452263538231732: 1, 0.13451069623797882: 1, 0.13449979259940276: 1, 0.13447071563511048: 1, 0.13446953596214761: 1, 0.1344567709308149: 1, 0.1344535513211573: 1, 0.13444473789886302: 1, 0.13442717327761022: 1, 0.13441367745799943: 1, 0.13441325415696054: 1, 0.13440674342508641: 1, 0.13438553452239854: 1, 0.13438144883690631: 1, 0.13434490811198593: 1, 0.1343033796524587: 1, 0.13428571039000098: 1, 0.13426510868805813: 1, 0.13425359736615683: 1, 0.13422351341562877: 1, 0.13420901859297996: 1, 0.13419815440301924: 1, 0.13419275161610197: 1, 0.13418212808241561: 1, 0.13414351098930111: 1, 0.13413906782801124: 1, 0.13412553569224717: 1, 0.13410842889715274: 1, 0.13407771943591346: 1, 0.13405982341851766: 1, 0.13405664940728243: 1, 0.13398007872330389: 1, 0.13396626237829393: 1, 0.13392220658192749: 1, 0.13389425070626265: 1, 0.13388513460197585: 1, 0.13387890287523813: 1, 0.13384190692839812: 1, 0.13384127034557894: 1, 0.13382344010892935: 1, 0.13380834667740421: 1, 0.13379760380884412: 1, 0.13379487930804881: 1, 0.1337698594253468: 1, 0.13375871934244057: 1, 0.13373155355684155: 1, 0.13371886591827037: 1, 0.13370674655131162: 1, 0.13365766377658414: 1, 0.13363688427381015: 1, 0.13363518640137928: 1, 0.13362960002304883: 1, 0.13361889187581399: 1, 0.13358274997369124: 1, 0.13357895796026292: 1, 0.13356855762839084: 1, 0.13355681591432231: 1, 0.13354610549761481: 1, 0.13354290077952718: 1, 0.13353903786765958: 1, 0.13353181010832707: 1, 0.13352366173846542: 1, 0.13350713510716677: 1, 0.13350295299993553: 1, 0.13350117413551599: 1, 0.13349572772118745: 1, 0.13348856396273359: 1, 0.13346032490972273: 1, 0.13344100582286877: 1, 0.13343827831157309: 1, 0.13343683863336617: 1, 0.13339411213772773: 1, 0.13338714870875756: 1, 0.13337361505730189: 1, 0.13337356123878166: 1, 0.13336131878220397: 1, 0.13335895346881105: 1, 0.13333732073107901: 1, 0.13332546290942679: 1, 0.13332294800538871: 1, 0.13329537687214665: 1, 0.1332666193193478: 1, 0.13324502104746602: 1, 0.13322285730247452: 1, 0.13320405216014469: 1, 0.13319733249829332: 1, 0.13319242195847503: 1, 0.13318520411173751: 1, 0.13316050708750282: 1, 0.13311859548742902: 1, 0.13311275272382472: 1, 0.13306005905016893: 1, 0.13305951134599547: 1, 0.13303591083578373: 1, 0.13302029842006804: 1, 0.13301678825552646: 1, 0.13301652585705412: 1, 0.13301382321242655: 1, 0.13300168232519771: 1, 0.13298438041365657: 1, 0.13296438872886673: 1, 0.13296348342849137: 1, 0.13294584100179657: 1, 0.13294383247745051: 1, 0.13293285048633274: 1, 0.13293105800945182: 1, 0.13292341089456614: 1, 0.13291952056014625: 1, 0.13291430535908988: 1, 0.13291370998664409: 1, 0.13289036335213864: 1, 0.13288351783230398: 1, 0.13287351777024672: 1, 0.13287194705318506: 1, 0.13285826404561299: 1, 0.13282727577128756: 1, 0.13282386088353415: 1, 0.13280788661811341: 1, 0.13277626169508863: 1, 0.13277599658467151: 1, 0.13276058083837142: 1, 0.13275705674252342: 1, 0.13273802816113237: 1, 0.1327269379462892: 1, 0.13269139224012677: 1, 0.13268591369713431: 1, 0.1326828591084542: 1, 0.1326664639533599: 1, 0.13264316974330551: 1, 0.13263115187960792: 1, 0.13261428100837755: 1, 0.13261398421964316: 1, 0.1326061239820186: 1, 0.13260152030130301: 1, 0.13259383716805986: 1, 0.13258883166835428: 1, 0.13257056595724231: 1, 0.13255193057068626: 1, 0.1325347061362229: 1, 0.13252359667701546: 1, 0.13251742174256168: 1, 0.13249296854138273: 1, 0.13248703727627562: 1, 0.1324670588865316: 1, 0.13243579451077023: 1, 0.13242815676883782: 1, 0.1324141222142993: 1, 0.13241269584510534: 1, 0.13235208073727617: 1, 0.13234253442009808: 1, 0.13233235501487653: 1, 0.13233131205822038: 1, 0.13233052129533965: 1, 0.13232665325312243: 1, 0.13231586537656692: 1, 0.1323148171034173: 1, 0.13230969009181145: 1, 0.13228699189127011: 1, 0.13227115231775771: 1, 0.13225705009255509: 1, 0.1322518494992686: 1, 0.13224276156190373: 1, 0.13223346502247602: 1, 0.13222698689456513: 1, 0.13221876095175411: 1, 0.13221294307136824: 1, 0.13220023748402482: 1, 0.1321925194335867: 1, 0.13218004589150747: 1, 0.13216060479683694: 1, 0.1321602820511957: 1, 0.13213915857861977: 1, 0.13213517160650459: 1, 0.13212994140194548: 1, 0.1320876062804292: 1, 0.13207888502419324: 1, 0.13206342553684539: 1, 0.13201279739048669: 1, 0.13197010398178063: 1, 0.13195047944651683: 1, 0.13193696946988889: 1, 0.13192682407541734: 1, 0.13192509288590934: 1, 0.13189768867144513: 1, 0.13189126160203599: 1, 0.13188598314336256: 1, 0.13187907744867228: 1, 0.1318713819317997: 1, 0.13186832295792794: 1, 0.13185781802865573: 1, 0.13185142808987599: 1, 0.13181833188401171: 1, 0.13181626114052217: 1, 0.13179996298281194: 1, 0.13179422512048697: 1, 0.1317916152303143: 1, 0.13176653245714728: 1, 0.13175061257460541: 1, 0.13174344365307947: 1, 0.13172901412816856: 1, 0.13171725344953955: 1, 0.13169894627223838: 1, 0.13166975932350894: 1, 0.13166820529339826: 1, 0.13166453166122419: 1, 0.13166347058817315: 1, 0.13165428312623098: 1, 0.13163046183239957: 1, 0.13162495010553088: 1, 0.13159738967825779: 1, 0.13158484921839708: 1, 0.1315688741986418: 1, 0.13155090740923575: 1, 0.13154546527588123: 1, 0.13152778043089791: 1, 0.13152522227940122: 1, 0.13150295722153621: 1, 0.13147741205569469: 1, 0.1314567075694793: 1, 0.1314461799838729: 1, 0.13142072904191301: 1, 0.13140271262972142: 1, 0.13139744035211379: 1, 0.13137384413129111: 1, 0.13128482440121717: 1, 0.13126998728560538: 1, 0.13122309187245712: 1, 0.13122033383366499: 1, 0.13120203872180913: 1, 0.13119794326491963: 1, 0.13118131759611307: 1, 0.13117265011749601: 1, 0.13114790648174146: 1, 0.13113896458643681: 1, 0.13112908869614195: 1, 0.13110492321192338: 1, 0.13109405085759029: 1, 0.13109400907268748: 1, 0.13107814225252115: 1, 0.13107684257052743: 1, 0.13105632366778483: 1, 0.13103139362502558: 1, 0.13098627521665057: 1, 0.13098193397423566: 1, 0.13096883195241937: 1, 0.13092296392056132: 1, 0.13090534056915401: 1, 0.13089808866422312: 1, 0.13088511282558885: 1, 0.13087311454181005: 1, 0.13086872144608294: 1, 0.13085209091109609: 1, 0.13084148353627806: 1, 0.13080816187795224: 1, 0.13078320545396852: 1, 0.13077592185821416: 1, 0.13077334330325283: 1, 0.13075312700812597: 1, 0.13074830588503475: 1, 0.13071566331575357: 1, 0.13070570134893258: 1, 0.13069705436573384: 1, 0.13069653055447836: 1, 0.13069299600166895: 1, 0.13068485848287364: 1, 0.13067817261694781: 1, 0.13066013736979845: 1, 0.13064627927916328: 1, 0.13064138791312191: 1, 0.13062845106069884: 1, 0.13062261272842896: 1, 0.13060894992221025: 1, 0.13060386854849271: 1, 0.13059292999391317: 1, 0.13058137905755762: 1, 0.13055200404482414: 1, 0.13053558731509188: 1, 0.13053504226115942: 1, 0.13052484257068089: 1, 0.13050660317839927: 1, 0.13050490419419863: 1, 0.13044445448464895: 1, 0.13040585010797462: 1, 0.1304055154200057: 1, 0.13040418669472842: 1, 0.13039692004456352: 1, 0.13038684317435892: 1, 0.1303824069375773: 1, 0.13036184618378879: 1, 0.13035933932570706: 1, 0.13033352509864451: 1, 0.13032652010790649: 1, 0.13031662968692201: 1, 0.13026325997519725: 1, 0.13025592361460767: 1, 0.13024971823243203: 1, 0.13024812318968604: 1, 0.13024566800343695: 1, 0.13023878017355156: 1, 0.1302370459949207: 1, 0.13022716183239033: 1, 0.13021693812653495: 1, 0.13021261554833691: 1, 0.13020498892414764: 1, 0.13019468774491813: 1, 0.13017185403487569: 1, 0.13016945145865313: 1, 0.1301595678445043: 1, 0.13015818919809166: 1, 0.13015670864187243: 1, 0.13015131325973631: 1, 0.13012430027077476: 1, 0.13011327535859049: 1, 0.13010177705503748: 1, 0.13010028537167712: 1, 0.1300966832977104: 1, 0.1300897636842831: 1, 0.13004643156289872: 1, 0.13004299690878254: 1, 0.12999878012152563: 1, 0.12998998008554868: 1, 0.1299718734634126: 1, 0.12996880928348731: 1, 0.12994204559546443: 1, 0.12993948500823216: 1, 0.12989471537381558: 1, 0.12988158000434963: 1, 0.12987593925780441: 1, 0.12987582613836982: 1, 0.12986230046878297: 1, 0.12985345873073506: 1, 0.12983124272170937: 1, 0.12977905407123685: 1, 0.12976612174417185: 1, 0.12975490765414602: 1, 0.12972414286701273: 1, 0.12971702749880493: 1, 0.12968364134447183: 1, 0.12968014301476324: 1, 0.12967318408154513: 1, 0.12964794004116209: 1, 0.12964484914858251: 1, 0.12964177728299667: 1, 0.1296338607225733: 1, 0.12962920819120347: 1, 0.12962307180899055: 1, 0.12961082536255941: 1, 0.12961022440613379: 1, 0.1296098995726202: 1, 0.12959430377269576: 1, 0.12954491836463028: 1, 0.12954219552521345: 1, 0.12951988214454196: 1, 0.12949771323169174: 1, 0.12947175497158026: 1, 0.1294630424526273: 1, 0.12944019923084216: 1, 0.12942838458616468: 1, 0.12942613474585521: 1, 0.12940745613447019: 1, 0.12940433629132175: 1, 0.12940312014056113: 1, 0.12938307502986912: 1, 0.12937957541558695: 1, 0.12936859789169639: 1, 0.12934629161418465: 1, 0.12932285215487505: 1, 0.12929865602133511: 1, 0.12926793912286438: 1, 0.12925015895444208: 1, 0.12924541630749237: 1, 0.129242867699045: 1, 0.12913041234554465: 1, 0.12911835585707063: 1, 0.12911267599588336: 1, 0.12910739285791054: 1, 0.12910642309183715: 1, 0.1290994345087659: 1, 0.12907839075675015: 1, 0.12905509925005648: 1, 0.12905406433575484: 1, 0.12905017752191561: 1, 0.12904741327532027: 1, 0.1290252775544769: 1, 0.12901871073707666: 1, 0.12901314401744679: 1, 0.12899566039438193: 1, 0.12896683536384571: 1, 0.12896360208697252: 1, 0.12896343421425613: 1, 0.12896123599062781: 1, 0.12895932120939171: 1, 0.12894190181282994: 1, 0.12894072856993261: 1, 0.12893530859278093: 1, 0.12892301787879307: 1, 0.12892197738293693: 1, 0.12890848406083935: 1, 0.12890349519645028: 1, 0.12887342767300419: 1, 0.12885350644745583: 1, 0.12885107369073201: 1, 0.12884643350828398: 1, 0.12883529185193118: 1, 0.12882946887632837: 1, 0.12881440491750695: 1, 0.12875418689362075: 1, 0.12874494666761027: 1, 0.12874188147822857: 1, 0.12873035759323914: 1, 0.12872904335969568: 1, 0.12872424430996823: 1, 0.12870544395467648: 1, 0.12867180742266546: 1, 0.128671482142378: 1, 0.12866034215922115: 1, 0.12865472584522605: 1, 0.12864238243733991: 1, 0.12863805784881105: 1, 0.12862390734745105: 1, 0.12859337439756216: 1, 0.12858943054201616: 1, 0.12856669072653423: 1, 0.12855548508552561: 1, 0.12852712097113647: 1, 0.12851922075328678: 1, 0.12851161542377518: 1, 0.12849646035633877: 1, 0.12849478559188024: 1, 0.12844924617301751: 1, 0.1284463039223411: 1, 0.12844133382231204: 1, 0.12842246920150793: 1, 0.12842198058452373: 1, 0.12841968692819972: 1, 0.12841569020484478: 1, 0.1284098479185658: 1, 0.12837612649542457: 1, 0.12835374906394059: 1, 0.1283534221269067: 1, 0.12834450485196752: 1, 0.12830107561865906: 1, 0.12827709124666534: 1, 0.12827593642397433: 1, 0.1282660948480687: 1, 0.12826237252449113: 1, 0.12824078159926325: 1, 0.12823621911621766: 1, 0.1282206982400691: 1, 0.12820903527634567: 1, 0.12817851031289498: 1, 0.12816636370174714: 1, 0.12816599819370669: 1, 0.12814424709239428: 1, 0.12812313230201344: 1, 0.12810662400880077: 1, 0.12808119533103798: 1, 0.12806125183323938: 1, 0.1280420782664777: 1, 0.12803208102243305: 1, 0.12802638825834031: 1, 0.12801517670812337: 1, 0.12800389385220665: 1, 0.12799471143875793: 1, 0.12798759143387986: 1, 0.12797538424243116: 1, 0.12796905307427878: 1, 0.12796705250067758: 1, 0.1279484794567485: 1, 0.12794079922989451: 1, 0.12793654928789566: 1, 0.12791711078770737: 1, 0.12790605083716394: 1, 0.12785024454607782: 1, 0.12782896638459379: 1, 0.12782064707756333: 1, 0.12781826539787286: 1, 0.12781105383072316: 1, 0.12779570180308705: 1, 0.12778828568152067: 1, 0.12776361904262351: 1, 0.12776041287208642: 1, 0.12775914725279872: 1, 0.12773925576289741: 1, 0.12773329985115336: 1, 0.12768621209977929: 1, 0.12766159473358418: 1, 0.12765751139770209: 1, 0.12764274747833557: 1, 0.12763459035899377: 1, 0.1276304198990198: 1, 0.12759815553490789: 1, 0.12759663034155333: 1, 0.12757262919056617: 1, 0.12756779483166578: 1, 0.12756060358959034: 1, 0.12753376304715847: 1, 0.1275332041916003: 1, 0.12753228694270924: 1, 0.1275096676884061: 1, 0.12750604539426552: 1, 0.12750401243915413: 1, 0.12745023408657191: 1, 0.12744751086254624: 1, 0.12744363966533506: 1, 0.12744160308114683: 1, 0.12743658964158752: 1, 0.12742816013986005: 1, 0.12741961758003792: 1, 0.12740438181448999: 1, 0.12740431629917559: 1, 0.12740038273942017: 1, 0.12738341944978782: 1, 0.12738134163368467: 1, 0.12738004898344324: 1, 0.12737224372992445: 1, 0.12735589128031349: 1, 0.12732924465909715: 1, 0.12730290852469073: 1, 0.12728852641501368: 1, 0.12728769978042634: 1, 0.12728565218696344: 1, 0.12728318300216288: 1, 0.12726633412196078: 1, 0.1272629649032829: 1, 0.1272407710023756: 1, 0.12723943518074868: 1, 0.12721134065817935: 1, 0.12716673329831668: 1, 0.12715446139469974: 1, 0.127143643822416: 1, 0.12712276490413266: 1, 0.12712008025663199: 1, 0.12711648740948109: 1, 0.12709912138524973: 1, 0.12708169626501442: 1, 0.12703996378823507: 1, 0.12701763932620169: 1, 0.12699652822906918: 1, 0.12698702521226091: 1, 0.12695354964586303: 1, 0.12695157856413336: 1, 0.12691794512168139: 1, 0.12691474608543044: 1, 0.12690165598404957: 1, 0.12690099142834524: 1, 0.12689057794521619: 1, 0.12687437122616896: 1, 0.12684931946013722: 1, 0.12684717876541626: 1, 0.12683501584972218: 1, 0.12681806309155039: 1, 0.12680949407002021: 1, 0.1268029084345641: 1, 0.12680109434520528: 1, 0.12679418957255045: 1, 0.12678344463251187: 1, 0.12676699568608815: 1, 0.12676042121365153: 1, 0.1267580963107067: 1, 0.12675534159729168: 1, 0.12675172829674211: 1, 0.12674787534333345: 1, 0.12673484969005017: 1, 0.12672618410125869: 1, 0.12670334035943639: 1, 0.12668637672321839: 1, 0.12666836844748897: 1, 0.12666399773829612: 1, 0.12663024352498733: 1, 0.12655205790318852: 1, 0.1265498978904569: 1, 0.12654583547962961: 1, 0.12654142115041458: 1, 0.12652639603794846: 1, 0.12652372355252267: 1, 0.12649651017840274: 1, 0.12648259524587299: 1, 0.12647887386865783: 1, 0.1264639510196979: 1, 0.12644610711290488: 1, 0.12644299654637439: 1, 0.1264306278990924: 1, 0.12641873491075764: 1, 0.12640699143309811: 1, 0.12638938429922836: 1, 0.12637317992841282: 1, 0.12637062362554305: 1, 0.12635441359077723: 1, 0.12631445442257755: 1, 0.12630758090655475: 1, 0.12626114755721943: 1, 0.12625285408468317: 1, 0.12625045393223208: 1, 0.12623040520435946: 1, 0.12622335386627684: 1, 0.12620996130133089: 1, 0.12618774720953135: 1, 0.12615424345348053: 1, 0.12615138103000634: 1, 0.12613975868157354: 1, 0.12613947514977264: 1, 0.12613103374537257: 1, 0.12612113700874564: 1, 0.12610782350835276: 1, 0.1260960519072869: 1, 0.12609053237863546: 1, 0.1260676252482654: 1, 0.12605510358909078: 1, 0.12605504270186688: 1, 0.12605178638312914: 1, 0.12602136963882518: 1, 0.12601293406265218: 1, 0.12598663364164769: 1, 0.12597289310098247: 1, 0.12597099382124896: 1, 0.12594587173063712: 1, 0.12590070478058957: 1, 0.12587841313981599: 1, 0.12587344009279253: 1, 0.12584784948747574: 1, 0.12584550417188139: 1, 0.12582781386081496: 1, 0.12580791210081932: 1, 0.12580305578334838: 1, 0.12580111215273415: 1, 0.12579879925868362: 1, 0.12579064302840987: 1, 0.12576341847806494: 1, 0.12575696730623417: 1, 0.12573418766945668: 1, 0.12571655718009547: 1, 0.12570941436887723: 1, 0.12570178346328439: 1, 0.12569829436804955: 1, 0.12569315736217457: 1, 0.12568446030683372: 1, 0.12564253397332587: 1, 0.12562258269204898: 1, 0.12560203852778354: 1, 0.12558304354631675: 1, 0.12557471842726733: 1, 0.12556900174050062: 1, 0.12556352058581205: 1, 0.12555319252846237: 1, 0.12554828316223782: 1, 0.1255154425791031: 1, 0.12550984831649856: 1, 0.12550358140600235: 1, 0.12548917334929263: 1, 0.12548888043058729: 1, 0.12548608573004175: 1, 0.12546919532711459: 1, 0.12545727758015371: 1, 0.12544430144976701: 1, 0.12543363233948088: 1, 0.12542936309874267: 1, 0.12541481642431068: 1, 0.125403138859184: 1, 0.12538658773338096: 1, 0.12538190740066993: 1, 0.1253721974199517: 1, 0.12536950918636403: 1, 0.12531847628514697: 1, 0.12529431231068905: 1, 0.12528243545113832: 1, 0.12526941182949583: 1, 0.12525929105360378: 1, 0.12524317348318978: 1, 0.12523394975969046: 1, 0.12523305174489063: 1, 0.12523002891291662: 1, 0.12517608382106502: 1, 0.12517233624517329: 1, 0.12516585015595127: 1, 0.12516284027987312: 1, 0.12515984865578647: 1, 0.12515798976818882: 1, 0.12514628559484361: 1, 0.12514159401438726: 1, 0.1251326145104914: 1, 0.12510676230196544: 1, 0.12508222004697114: 1, 0.12505167434040901: 1, 0.1250477779206437: 1, 0.12504461176182585: 1, 0.1250441343252704: 1, 0.12500763904275317: 1, 0.12500590952307108: 1, 0.12500215794523362: 1, 0.12498027280188193: 1, 0.12495896820071928: 1, 0.12495645875912681: 1, 0.12495371549854342: 1, 0.12486332572738353: 1, 0.12485382027950447: 1, 0.1248369721240442: 1, 0.12482887626278077: 1, 0.12475989145408747: 1, 0.12475690919741228: 1, 0.12472982195432283: 1, 0.12472173144764917: 1, 0.12471267705633049: 1, 0.12471188483409065: 1, 0.1247012756253038: 1, 0.12468039571302035: 1, 0.12465339123873147: 1, 0.12465302469686136: 1, 0.12463855745175743: 1, 0.1246106346513749: 1, 0.12460694161523644: 1, 0.12458377097697482: 1, 0.1245647977219574: 1, 0.12452785367969793: 1, 0.12452565180458117: 1, 0.12452280496370734: 1, 0.12448455395959267: 1, 0.12445693501689532: 1, 0.12444041231935372: 1, 0.12442975456921236: 1, 0.12442751545276322: 1, 0.12440434633154346: 1, 0.12439894318038347: 1, 0.12438305635492569: 1, 0.12437422526150357: 1, 0.12436281211984158: 1, 0.12435372602498307: 1, 0.12433571825745951: 1, 0.12429829564382366: 1, 0.12427977802033043: 1, 0.12427621571320432: 1, 0.12426854798090219: 1, 0.1242528029016842: 1, 0.1242486042575635: 1, 0.12424201465027904: 1, 0.12423381862907827: 1, 0.12422913183993907: 1, 0.12419781442864654: 1, 0.12418750048458815: 1, 0.1241714676676825: 1, 0.12413122510618077: 1, 0.12412123175668467: 1, 0.12411766835257904: 1, 0.12409705814269649: 1, 0.12408598674654346: 1, 0.12408493799589407: 1, 0.12407831045357072: 1, 0.12407168946129639: 1, 0.12405724987343181: 1, 0.12399143095528858: 1, 0.12399072409498771: 1, 0.12394400332844707: 1, 0.12392080887520676: 1, 0.12388006942366328: 1, 0.12387646285839977: 1, 0.12386356107879143: 1, 0.12383162194596903: 1, 0.12382976610963786: 1, 0.12380689052614392: 1, 0.12380576232693855: 1, 0.12379596704039721: 1, 0.12378104913409724: 1, 0.12376287249618244: 1, 0.12374365448119713: 1, 0.12373939067868481: 1, 0.12373784009291383: 1, 0.12372229401090896: 1, 0.1237017722846584: 1, 0.12370023938877543: 1, 0.12366551770245073: 1, 0.12366266344568357: 1, 0.12366073931477541: 1, 0.12362547958592951: 1, 0.12362487716855813: 1, 0.12356393077793247: 1, 0.12352911620584914: 1, 0.12351207266679248: 1, 0.1235050255929685: 1, 0.12349602357959638: 1, 0.12348883042385053: 1, 0.12347537284133116: 1, 0.1234685069818576: 1, 0.12345848937594313: 1, 0.12344834439905188: 1, 0.12344164884210002: 1, 0.12343601771567039: 1, 0.12341899056312085: 1, 0.1234041961433225: 1, 0.12339920822149225: 1, 0.12339253853623838: 1, 0.12339195664604832: 1, 0.12338009160245285: 1, 0.12337744673686984: 1, 0.12337084834546273: 1, 0.12336871450458754: 1, 0.12335453837715493: 1, 0.12334988296292917: 1, 0.12334397637107213: 1, 0.12333468135218527: 1, 0.12333390126240035: 1, 0.12332053382104488: 1, 0.12332032958731561: 1, 0.12330534828836935: 1, 0.12328861731323455: 1, 0.12328543792268384: 1, 0.12318454076763795: 1, 0.12317863745158708: 1, 0.12317575774458291: 1, 0.12317134729824621: 1, 0.1231708728314445: 1, 0.12314487818348456: 1, 0.12314260884322586: 1, 0.12312715479993717: 1, 0.12312405690315767: 1, 0.12311279620764061: 1, 0.12309503825002219: 1, 0.12309158307604945: 1, 0.12307924019162263: 1, 0.12305608622608007: 1, 0.12304868847452913: 1, 0.12303612436147675: 1, 0.12302967014710828: 1, 0.12302624498237114: 1, 0.12302062796931008: 1, 0.1230018062341774: 1, 0.12298113495512991: 1, 0.12297850324444495: 1, 0.12295033735170546: 1, 0.122941091342226: 1, 0.12293905236608865: 1, 0.12292419826120088: 1, 0.12292020508495377: 1, 0.1229201867014947: 1, 0.12291448124620244: 1, 0.12290307372066156: 1, 0.12289872328992779: 1, 0.12288741115698588: 1, 0.12286126000609132: 1, 0.12282502542011856: 1, 0.12279576060802311: 1, 0.12276897029483502: 1, 0.12275067809287037: 1, 0.12274192460180688: 1, 0.12274128132869236: 1, 0.12273546361011281: 1, 0.12273360115617826: 1, 0.12271536486473622: 1, 0.12271214379662553: 1, 0.12270503719509415: 1, 0.12267877419973153: 1, 0.1226784017281423: 1, 0.12267137481637103: 1, 0.12266615057401821: 1, 0.12260842965226604: 1, 0.12260146303350863: 1, 0.12258210820144065: 1, 0.12256493174225906: 1, 0.12255992011037496: 1, 0.12255552486244908: 1, 0.12254808459792363: 1, 0.12254361055584578: 1, 0.12253131754704186: 1, 0.12249212619868459: 1, 0.122471652627495: 1, 0.12245609512297556: 1, 0.12244821554370042: 1, 0.12244255044568722: 1, 0.12241193691136042: 1, 0.12238204456869521: 1, 0.1223565827784944: 1, 0.1223508525335272: 1, 0.12234586124960162: 1, 0.1223360542840105: 1, 0.12233273315026966: 1, 0.1223260528839335: 1, 0.12232119763538767: 1, 0.12231649041848777: 1, 0.12229544226894432: 1, 0.12229355433244588: 1, 0.12229263899470472: 1, 0.12225091538883068: 1, 0.1222497795100774: 1, 0.12224854364439167: 1, 0.12223075290020971: 1, 0.12223065659546203: 1, 0.12218357915848795: 1, 0.12218053987032548: 1, 0.12216857094298755: 1, 0.12214885203451073: 1, 0.12214875983857208: 1, 0.12214519745435333: 1, 0.12214069871133357: 1, 0.12209827456185815: 1, 0.12209105005052559: 1, 0.12207953115271353: 1, 0.12207590904855824: 1, 0.12205852186908352: 1, 0.12205647043946521: 1, 0.12203915127308948: 1, 0.12202400728665776: 1, 0.12197979844824386: 1, 0.12196889570515052: 1, 0.12196523580178152: 1, 0.1219495801983409: 1, 0.12194228659581113: 1, 0.12193969592645226: 1, 0.12193315607709651: 1, 0.1219210339185466: 1, 0.12191333315880293: 1, 0.12189696618391035: 1, 0.12189274095489117: 1, 0.12187832787877506: 1, 0.12187130572995002: 1, 0.12186269057596251: 1, 0.12185674558511335: 1, 0.12185593772982238: 1, 0.12184245564342401: 1, 0.12180987442662967: 1, 0.12180802370078594: 1, 0.12178919659656227: 1, 0.12178381013546664: 1, 0.12178246883498842: 1, 0.12176488571658238: 1, 0.12173854376068853: 1, 0.12173431280664875: 1, 0.12169795259236454: 1, 0.12169521789777656: 1, 0.12169407064784345: 1, 0.12167404824251128: 1, 0.12166365871734826: 1, 0.12166299147829662: 1, 0.12166000916759195: 1, 0.12165468738713504: 1, 0.12164720351410024: 1, 0.12163585899757839: 1, 0.12160445676787893: 1, 0.12158241678082152: 1, 0.12157975583268441: 1, 0.12156683647611138: 1, 0.12155624384881003: 1, 0.12154385391555751: 1, 0.12150347366927292: 1, 0.1214850190237291: 1, 0.12148336107604568: 1, 0.12147472167587597: 1, 0.12146636653767158: 1, 0.12143548496920326: 1, 0.12143190284614201: 1, 0.12143147298943691: 1, 0.12142812858742007: 1, 0.12142791658143944: 1, 0.12138637259919757: 1, 0.12138037665969791: 1, 0.12137452330178643: 1, 0.12137245049714457: 1, 0.12137189460100656: 1, 0.12135754073180548: 1, 0.12134877605313256: 1, 0.12134538241833803: 1, 0.12134461117799338: 1, 0.12133285053455706: 1, 0.12132789077487388: 1, 0.12132743725366273: 1, 0.12129737707484822: 1, 0.12128695156974068: 1, 0.12125668404940107: 1, 0.12125218494392548: 1, 0.1212504908702845: 1, 0.12124587788131679: 1, 0.12123940561772036: 1, 0.12121032009161657: 1, 0.12120734112349585: 1, 0.12119106394016643: 1, 0.12118662261854476: 1, 0.12116090354115241: 1, 0.12113896685036678: 1, 0.12113210650942938: 1, 0.1211105698804405: 1, 0.12105044347561747: 1, 0.12103319748733557: 1, 0.12103027476948625: 1, 0.12101700880851704: 1, 0.12100258354688427: 1, 0.12098689848319778: 1, 0.12091774631428749: 1, 0.12091663431891488: 1, 0.12091159999137155: 1, 0.12090214002907143: 1, 0.12089021354638656: 1, 0.12084510426963908: 1, 0.1208349236403761: 1, 0.12083382537075577: 1, 0.12080111157589486: 1, 0.12079483286118189: 1, 0.12079451497573533: 1, 0.12079192682165894: 1, 0.12077924379823282: 1, 0.12075975894703049: 1, 0.12074273672137487: 1, 0.12072289285668036: 1, 0.12071722326044096: 1, 0.12071252236487656: 1, 0.12071047815091696: 1, 0.12070297323364476: 1, 0.12065379163947759: 1, 0.12065355446095606: 1, 0.12064476772532204: 1, 0.12061604350685358: 1, 0.12060565809699146: 1, 0.12060035624698881: 1, 0.12059273418316593: 1, 0.12058858660951549: 1, 0.12056043094069017: 1, 0.12055337161217883: 1, 0.12054128617724374: 1, 0.12052795991911094: 1, 0.12052791209496043: 1, 0.12052282518524443: 1, 0.1205045452087706: 1, 0.12047388223693718: 1, 0.12045970125741082: 1, 0.12045899835335193: 1, 0.12043911154919688: 1, 0.12040825780090898: 1, 0.12039981475218781: 1, 0.12039175897702958: 1, 0.12038580849552979: 1, 0.12038574286740672: 1, 0.12038557112811904: 1, 0.12038404920191548: 1, 0.12036118399671161: 1, 0.12035322632565493: 1, 0.12035177217007684: 1, 0.12033795561871762: 1, 0.12031682559902616: 1, 0.12030062555661199: 1, 0.12028763721641186: 1, 0.12028458912009801: 1, 0.1202711858348917: 1, 0.12026627700525817: 1, 0.12026066530959208: 1, 0.12025224012915627: 1, 0.12023964832532165: 1, 0.12023053588412025: 1, 0.12018113159655862: 1, 0.12013596922414249: 1, 0.12013528559013628: 1, 0.12011530037797841: 1, 0.1200961930281304: 1, 0.12008921568950016: 1, 0.12008425606257876: 1, 0.12008168296480579: 1, 0.12008116924861872: 1, 0.12007456936095384: 1, 0.12007113915183042: 1, 0.12006406737285483: 1, 0.12001066695725245: 1, 0.11995163155163742: 1, 0.1199372524867237: 1, 0.11993040320955654: 1, 0.11993020495507942: 1, 0.11992666116397097: 1, 0.11992152429595833: 1, 0.11992058576601493: 1, 0.11992052628968072: 1, 0.11990137455189566: 1, 0.11987417919090528: 1, 0.1198737115718486: 1, 0.11986869130678787: 1, 0.11985623732737086: 1, 0.11985032213798776: 1, 0.1198433089727886: 1, 0.11982521892573683: 1, 0.11981877102243541: 1, 0.11981823760828597: 1, 0.11979972968832488: 1, 0.11978933255872096: 1, 0.11978918459564002: 1, 0.11977920703338457: 1, 0.11973828590783321: 1, 0.11972333842781591: 1, 0.11971975977102174: 1, 0.11971666272197992: 1, 0.11971337557491306: 1, 0.11970144016998555: 1, 0.1197012966787105: 1, 0.11969224026695056: 1, 0.11968858711220812: 1, 0.11967296842295115: 1, 0.11966396908106967: 1, 0.11965834153801042: 1, 0.11964810760770776: 1, 0.11964419144217579: 1, 0.11961287596312453: 1, 0.11961077373036862: 1, 0.11959507125849717: 1, 0.1195735064410907: 1, 0.11956701729402187: 1, 0.11956468144713286: 1, 0.11954870818256096: 1, 0.1195408769017654: 1, 0.11953086604350026: 1, 0.11952362810189325: 1, 0.11951666144824961: 1, 0.11950892194311676: 1, 0.11950640154269571: 1, 0.11950425285528393: 1, 0.11949850369200046: 1, 0.11946753654573666: 1, 0.11945795244255794: 1, 0.11943244216670471: 1, 0.11942576639288742: 1, 0.11942350471022826: 1, 0.1194151228327054: 1, 0.11940365801877101: 1, 0.1193974610467726: 1, 0.11937831180163136: 1, 0.11937228980836248: 1, 0.11936666993882514: 1, 0.1193624978495595: 1, 0.11931666724753301: 1, 0.11929452412223734: 1, 0.11929127756126413: 1, 0.1192701811862827: 1, 0.11926562494475548: 1, 0.11925211637259131: 1, 0.11925204874403214: 1, 0.11922942085569004: 1, 0.11918421128532805: 1, 0.1191527318304305: 1, 0.11914505787393699: 1, 0.11913878080243713: 1, 0.11912473901171873: 1, 0.11909887937478367: 1, 0.11909642692092738: 1, 0.11905997835165689: 1, 0.11904950596838652: 1, 0.11904557310264238: 1, 0.11904034047352915: 1, 0.1190290617980633: 1, 0.11901715491703954: 1, 0.1190079041371265: 1, 0.11898809011120513: 1, 0.11898140062968607: 1, 0.11897821871531433: 1, 0.11896826241534957: 1, 0.1189628610273322: 1, 0.11896246431173003: 1, 0.11895064472923984: 1, 0.11894657763526653: 1, 0.11893506768978693: 1, 0.11888631993675629: 1, 0.11886670095795167: 1, 0.11886140513544104: 1, 0.11886004422750737: 1, 0.11885461115209782: 1, 0.11885379508392781: 1, 0.11884686383941828: 1, 0.11883561514514475: 1, 0.11882931418544518: 1, 0.11880424452896032: 1, 0.11878953194731691: 1, 0.11878853859202981: 1, 0.1187593622818033: 1, 0.11875788659846009: 1, 0.11874584573987526: 1, 0.1187237264774846: 1, 0.11872289924339188: 1, 0.11872234416142058: 1, 0.11872156270661333: 1, 0.11871653723558387: 1, 0.11870716106716923: 1, 0.1187028053984379: 1, 0.11869566616308792: 1, 0.11868766403057845: 1, 0.11866891322637629: 1, 0.11865856285062922: 1, 0.11864292490340975: 1, 0.11863775717470618: 1, 0.11861778547690165: 1, 0.11861601758889348: 1, 0.11861236055939471: 1, 0.11860660272840484: 1, 0.11857845784962288: 1, 0.11856032980140462: 1, 0.11853428008112887: 1, 0.11852621428521351: 1, 0.11847227738584692: 1, 0.11846222798611966: 1, 0.11845588223820833: 1, 0.11845377483455109: 1, 0.11843646322829343: 1, 0.11843163857701566: 1, 0.11841891705481442: 1, 0.11839905473087381: 1, 0.11839533127359053: 1, 0.11839329735874439: 1, 0.118390018332602: 1, 0.1183627153500377: 1, 0.11836262065132154: 1, 0.11834289291747305: 1, 0.11829745560138327: 1, 0.11822643100618971: 1, 0.1182252155447945: 1, 0.11822202902011664: 1, 0.11821988691975009: 1, 0.11821734331753884: 1, 0.11821556785651947: 1, 0.11821425347761082: 1, 0.1181865920154119: 1, 0.11818227476830831: 1, 0.1181351543093625: 1, 0.1181269971024026: 1, 0.11812311146896938: 1, 0.11810442799754091: 1, 0.11807108669294027: 1, 0.11806477254919492: 1, 0.11804188999874865: 1, 0.11803928811638612: 1, 0.11803109347402103: 1, 0.11800793091558458: 1, 0.11799911083289398: 1, 0.11797370567854856: 1, 0.11795506653844923: 1, 0.11793191685608503: 1, 0.11791936736277706: 1, 0.11791789406099348: 1, 0.11791541184180419: 1, 0.11791537458722195: 1, 0.11791050438362323: 1, 0.11787828779652579: 1, 0.11787666209636787: 1, 0.11787620577182696: 1, 0.11787190189735562: 1, 0.11785815955876336: 1, 0.11784693119407059: 1, 0.11783913093301052: 1, 0.11781830458682627: 1, 0.11778890338205388: 1, 0.11777101703571013: 1, 0.11776957137599288: 1, 0.11776498524966869: 1, 0.11775994495273716: 1, 0.11775809047120057: 1, 0.1177547838037576: 1, 0.11773879849201768: 1, 0.117733793541291: 1, 0.11772841865222335: 1, 0.11770384137163163: 1, 0.11766137197541324: 1, 0.11764567377001484: 1, 0.11763070260023739: 1, 0.11762488503572203: 1, 0.11761207457237381: 1, 0.11760046100174611: 1, 0.11759957307939527: 1, 0.11759308003364212: 1, 0.11759122589656532: 1, 0.11755952159252485: 1, 0.11753037118637631: 1, 0.11752113882761728: 1, 0.11751754683808924: 1, 0.1175112494540554: 1, 0.11750629917560551: 1, 0.11750067471187521: 1, 0.11749459270352711: 1, 0.1174845597806113: 1, 0.11747675851601193: 1, 0.11746151787484674: 1, 0.11741816799691697: 1, 0.11741330539845045: 1, 0.11740334794494588: 1, 0.11738783660723012: 1, 0.11738630129004748: 1, 0.11738079636105955: 1, 0.11736569953100889: 1, 0.1173496742557866: 1, 0.11734334422809316: 1, 0.11734305114667939: 1, 0.11733595419110415: 1, 0.1173324395733024: 1, 0.11732869930557961: 1, 0.11732362212996472: 1, 0.11731979752148847: 1, 0.11726919877389151: 1, 0.11724640734593739: 1, 0.11721552950063026: 1, 0.11721542222259367: 1, 0.1171981457931463: 1, 0.1171639433572865: 1, 0.11715844649774573: 1, 0.11715783622681483: 1, 0.11715013965472057: 1, 0.11713605920753398: 1, 0.11712552954358268: 1, 0.11711368060103731: 1, 0.11710698416784959: 1, 0.11705897606374178: 1, 0.11703978606534129: 1, 0.1170289461330284: 1, 0.11702033020925319: 1, 0.11699937328495774: 1, 0.11698185841605376: 1, 0.11697010660208537: 1, 0.11696377117980059: 1, 0.11696259007070346: 1, 0.11692961436749197: 1, 0.11687568213909003: 1, 0.11687002299829591: 1, 0.11685319571670277: 1, 0.11684957449554409: 1, 0.11684145511491929: 1, 0.11683832772995176: 1, 0.11682688525885596: 1, 0.11682340315271801: 1, 0.11679468781828452: 1, 0.11678433746399283: 1, 0.11675553851618603: 1, 0.11673578094713152: 1, 0.11672557923587182: 1, 0.1167207796494439: 1, 0.11671684603564296: 1, 0.11670641430632007: 1, 0.11667996976580909: 1, 0.11665912151491974: 1, 0.11665555979841903: 1, 0.11665014114457371: 1, 0.11664665897527318: 1, 0.11662786928798673: 1, 0.11662022457790189: 1, 0.11660309499187502: 1, 0.1165877623486871: 1, 0.1165784149532194: 1, 0.11657699427507823: 1, 0.11656525353614601: 1, 0.11655760786192626: 1, 0.11654083011816126: 1, 0.11652379560243027: 1, 0.11649891165641073: 1, 0.11649310825852095: 1, 0.11643891568545424: 1, 0.11642431767806663: 1, 0.11641209631460633: 1, 0.11641188250899825: 1, 0.11640876138347009: 1, 0.11640002173893305: 1, 0.11638639913956236: 1, 0.1163775113476912: 1, 0.11635702512398595: 1, 0.11634228897933338: 1, 0.11631948747190096: 1, 0.11630897530392799: 1, 0.11628998477579082: 1, 0.11628012710575977: 1, 0.1162646254713034: 1, 0.11625493354235618: 1, 0.11623303753002678: 1, 0.11622999513317238: 1, 0.11620632893747611: 1, 0.11619740795903631: 1, 0.11618616375982897: 1, 0.11613082752110326: 1, 0.11612120146038292: 1, 0.11609894237799642: 1, 0.11608539204192178: 1, 0.11606278049563637: 1, 0.11605812837354959: 1, 0.11604706891716902: 1, 0.11603498201418859: 1, 0.11603449717330644: 1, 0.11603189644360894: 1, 0.11602657533170105: 1, 0.11602521701925821: 1, 0.1160095130825132: 1, 0.11600356910107902: 1, 0.11599572958511233: 1, 0.11599425723458351: 1, 0.11598961191358044: 1, 0.11594238445561435: 1, 0.11592357318810151: 1, 0.11592069516986765: 1, 0.11588993533488824: 1, 0.11588347095417872: 1, 0.11584275101035262: 1, 0.11584135274398456: 1, 0.11582355072359697: 1, 0.11581386443939297: 1, 0.11581303262915038: 1, 0.11581264331260899: 1, 0.11575825957612854: 1, 0.11573848474451295: 1, 0.11572810826833096: 1, 0.11572725103537465: 1, 0.11571015206344964: 1, 0.11570638093671991: 1, 0.11567868734709175: 1, 0.1156782581132498: 1, 0.11566474416130314: 1, 0.11566174509252081: 1, 0.11565826650315916: 1, 0.11565681175005942: 1, 0.11565541568307899: 1, 0.11565521843484697: 1, 0.11564380153363434: 1, 0.11564021851662895: 1, 0.1156358447165346: 1, 0.11563250181761453: 1, 0.11558749564580999: 1, 0.11557234048186343: 1, 0.11556741607254933: 1, 0.11553341511651058: 1, 0.11551238710686322: 1, 0.11550692373684648: 1, 0.11550453944083235: 1, 0.11549751246440265: 1, 0.11548042381369658: 1, 0.11547227194287916: 1, 0.11546478807117312: 1, 0.11544840867085172: 1, 0.11544432504408558: 1, 0.11544031789568836: 1, 0.11542795637657331: 1, 0.11541209341153488: 1, 0.11541011059920477: 1, 0.11540805569056189: 1, 0.1153865516352089: 1, 0.11538519344821668: 1, 0.11537939974739891: 1, 0.11533002792663982: 1, 0.11532017199075: 1, 0.11530350050104386: 1, 0.1152897475473709: 1, 0.11528586585083407: 1, 0.11527760242992041: 1, 0.11525650152491654: 1, 0.11525197418584915: 1, 0.11522879460281873: 1, 0.1152278149194292: 1, 0.11522747169281636: 1, 0.11522050401815044: 1, 0.1152017729256386: 1, 0.11519054312748073: 1, 0.11516699559124763: 1, 0.11513429538395606: 1, 0.11512686929684759: 1, 0.115104296858576: 1, 0.11509635080735643: 1, 0.11509557964281286: 1, 0.1150932289276555: 1, 0.11508038340705834: 1, 0.1150715551289235: 1, 0.11506416285875312: 1, 0.11506331219149708: 1, 0.11504924861718982: 1, 0.11503250931131431: 1, 0.11501812585312485: 1, 0.11500509451267793: 1, 0.11499083411721096: 1, 0.11498242372114462: 1, 0.11495610917369446: 1, 0.11494101733035501: 1, 0.1148863281431496: 1, 0.11488365144909679: 1, 0.11487928879891615: 1, 0.11483685289931544: 1, 0.11482072249943867: 1, 0.11478188045598699: 1, 0.1147815027260578: 1, 0.11476834151254145: 1, 0.11476241545253209: 1, 0.11476043208655984: 1, 0.11474045799225718: 1, 0.11471871568900688: 1, 0.11470314965184251: 1, 0.11468831435841961: 1, 0.11468529377995741: 1, 0.11468354980537071: 1, 0.11468186696852185: 1, 0.11468121270589537: 1, 0.11464091408920823: 1, 0.11463410936254834: 1, 0.11463140032344921: 1, 0.11461088617787553: 1, 0.11459704257083304: 1, 0.11456380065096324: 1, 0.11454942953163656: 1, 0.11454935381175166: 1, 0.11453960146259055: 1, 0.11453722065171157: 1, 0.11453393246579724: 1, 0.11450994064841755: 1, 0.11449490376346909: 1, 0.11447012483967506: 1, 0.11446814330772027: 1, 0.11445172479838836: 1, 0.11443664311084857: 1, 0.11443214956179658: 1, 0.11442388904050201: 1, 0.11440614723692159: 1, 0.11437177306227989: 1, 0.11436006857728061: 1, 0.11433895106593386: 1, 0.11433073610832116: 1, 0.11432078835228518: 1, 0.11431700862262036: 1, 0.11431618909245513: 1, 0.11429370084176757: 1, 0.11429353625786196: 1, 0.11426062988056596: 1, 0.11425682473659424: 1, 0.1142552066705938: 1, 0.11425482916077848: 1, 0.11425325094654444: 1, 0.11422250074713784: 1, 0.11419965691776582: 1, 0.11419339032918656: 1, 0.11415725776059654: 1, 0.11414791099525191: 1, 0.1141395667664401: 1, 0.11413657333315172: 1, 0.11413133855294916: 1, 0.1140924194215493: 1, 0.11408748364101765: 1, 0.11408389497012331: 1, 0.11408369627266056: 1, 0.11406166507147529: 1, 0.11405740714894545: 1, 0.11405561470076014: 1, 0.11403199778714818: 1, 0.11403080954160497: 1, 0.11401007220705631: 1, 0.11400645029640524: 1, 0.11399948961394021: 1, 0.11399617036515446: 1, 0.11398900110615928: 1, 0.11398632588940863: 1, 0.11397576254958332: 1, 0.11397338601916884: 1, 0.11396617779066756: 1, 0.11394034758282678: 1, 0.1139358468114449: 1, 0.11391688967961097: 1, 0.11390023578213954: 1, 0.11389856249784637: 1, 0.11386868594408985: 1, 0.11386781690554544: 1, 0.11386633700906588: 1, 0.11385128577318268: 1, 0.11383567602017895: 1, 0.1138239261961108: 1, 0.11382368041305432: 1, 0.11382260587921982: 1, 0.11380847499762448: 1, 0.11380590757598405: 1, 0.11380261989842393: 1, 0.11379714461568702: 1, 0.11378498834199036: 1, 0.11377936153360999: 1, 0.11374991554601002: 1, 0.11374604050189513: 1, 0.11373997011283662: 1, 0.11373298178308158: 1, 0.11373150654132184: 1, 0.11372510198892082: 1, 0.11372509944957654: 1, 0.11371480218183247: 1, 0.1136989778877924: 1, 0.1136928416159509: 1, 0.11368163781323326: 1, 0.11366107336005725: 1, 0.11365776930873031: 1, 0.113651684180852: 1, 0.11364753720865972: 1, 0.11362484228507359: 1, 0.11361380957578462: 1, 0.11361254900089765: 1, 0.11358280019758983: 1, 0.11357799169801217: 1, 0.11356535869270308: 1, 0.11354128299886314: 1, 0.11354071097880299: 1, 0.1135391141601613: 1, 0.11352884146205719: 1, 0.11351337185594057: 1, 0.11348905467236048: 1, 0.11347703167441062: 1, 0.11345293562903579: 1, 0.11343732485851923: 1, 0.11343075548304483: 1, 0.11342445980544033: 1, 0.11339047476434244: 1, 0.11337079747846916: 1, 0.11336710035074279: 1, 0.11335392475763922: 1, 0.11335258099163241: 1, 0.11334930529787028: 1, 0.1133429161468395: 1, 0.11331697433589777: 1, 0.11331585478739974: 1, 0.11330714325381369: 1, 0.11329858484862361: 1, 0.11328253766617333: 1, 0.11326298708596758: 1, 0.11326227337155945: 1, 0.11325795029844589: 1, 0.11321468378365966: 1, 0.11320798080203463: 1, 0.11319861630173869: 1, 0.11319460379508994: 1, 0.1131903057360875: 1, 0.11315949459778085: 1, 0.11313149998621855: 1, 0.11310907295058779: 1, 0.11309929325644513: 1, 0.11308153464477123: 1, 0.11305710363462776: 1, 0.11305202743925906: 1, 0.11303872777185708: 1, 0.11303557032693605: 1, 0.1130110531067236: 1, 0.11300822330408686: 1, 0.11299412952225436: 1, 0.11298375918381173: 1, 0.11296103384797287: 1, 0.1129412546944098: 1, 0.11293892368589747: 1, 0.11292237752074233: 1, 0.11291752652629979: 1, 0.11287698533020216: 1, 0.11284109683526221: 1, 0.11282132356130366: 1, 0.11280999631318865: 1, 0.11278257512092002: 1, 0.11277293269588146: 1, 0.11276397195289034: 1, 0.11274987048669027: 1, 0.11274665421102632: 1, 0.11274280426540617: 1, 0.11272960844765387: 1, 0.11272637062575833: 1, 0.11272526603622031: 1, 0.11271507450463412: 1, 0.11271054476909861: 1, 0.11270572320561646: 1, 0.11269836784617282: 1, 0.11269183349809261: 1, 0.11268632197861991: 1, 0.11266820213275365: 1, 0.11264718670047286: 1, 0.11262596928833446: 1, 0.11260049417480993: 1, 0.11259614851306525: 1, 0.1125863158228243: 1, 0.11256667038885326: 1, 0.11255374647112265: 1, 0.11255300368539471: 1, 0.11254881711913811: 1, 0.11254861941758904: 1, 0.11252295509512263: 1, 0.11252243002630465: 1, 0.11250546065860362: 1, 0.11249465847109691: 1, 0.11247110572162601: 1, 0.11246903583574973: 1, 0.11245255205559371: 1, 0.11243437604244859: 1, 0.11242981257548178: 1, 0.11238736209001897: 1, 0.11237466461984276: 1, 0.11237092867991696: 1, 0.11236161375568829: 1, 0.11235611962730815: 1, 0.11235319193741622: 1, 0.11234231871964488: 1, 0.11233352031600521: 1, 0.11231782049790399: 1, 0.11229424809889295: 1, 0.11228292728647785: 1, 0.11228096883016579: 1, 0.11227924761038482: 1, 0.11225894811142967: 1, 0.11225576561004738: 1, 0.11225372867551049: 1, 0.11222553510300998: 1, 0.1122038492286465: 1, 0.11220129700055043: 1, 0.11219161714791677: 1, 0.11216400956706256: 1, 0.11215843352333164: 1, 0.11215707389046657: 1, 0.11215048837756676: 1, 0.11215033358763926: 1, 0.11213118722275942: 1, 0.11212486595437153: 1, 0.11211998267898213: 1, 0.11210510645452369: 1, 0.11210397140862119: 1, 0.11204743927740841: 1, 0.11204574753478046: 1, 0.11203873228304276: 1, 0.11203833719230089: 1, 0.11202891162757751: 1, 0.11202834093359802: 1, 0.11201714983090258: 1, 0.1120151296915296: 1, 0.11201210776950249: 1, 0.11200746958881821: 1, 0.11198174783573349: 1, 0.11196885735976182: 1, 0.11196879753256334: 1, 0.11191724695541919: 1, 0.11188184664851548: 1, 0.11186387868469978: 1, 0.11186216809606736: 1, 0.11182951887315985: 1, 0.11182650050181482: 1, 0.11179683851388335: 1, 0.11177183827576331: 1, 0.11176372237285039: 1, 0.11176226890755639: 1, 0.11174561120044786: 1, 0.11172968621300897: 1, 0.11172274654095006: 1, 0.11167955051765263: 1, 0.11166649779470632: 1, 0.11165482250573193: 1, 0.11162763053548871: 1, 0.11161856985866447: 1, 0.11161642657097171: 1, 0.11160731685608198: 1, 0.11159122218502307: 1, 0.11157701569648275: 1, 0.11157439297043681: 1, 0.11156431990576486: 1, 0.11155625628497409: 1, 0.11155411449789973: 1, 0.11155368830771666: 1, 0.11154926207954877: 1, 0.11154247345920157: 1, 0.11154106745256807: 1, 0.1115151906893245: 1, 0.11150607978456233: 1, 0.11149277746173811: 1, 0.11148260194186144: 1, 0.11145223205430828: 1, 0.11145031551789096: 1, 0.11140981783170048: 1, 0.11139920359808145: 1, 0.11135835096133676: 1, 0.11135335396380962: 1, 0.11132566349399046: 1, 0.11131527305277145: 1, 0.11131042337224306: 1, 0.11129981761097348: 1, 0.11128811193002883: 1, 0.11128228897034789: 1, 0.11126258565904752: 1, 0.11121003892678548: 1, 0.11119658957522502: 1, 0.11116777272440656: 1, 0.11116061083996684: 1, 0.11115592567525563: 1, 0.11114999130662703: 1, 0.11111823190043625: 1, 0.11110489995994635: 1, 0.11110308715680156: 1, 0.11109769614538775: 1, 0.11106457264817672: 1, 0.11106266120126611: 1, 0.11105306496506223: 1, 0.11103037279984532: 1, 0.1110062939333803: 1, 0.1109910481266788: 1, 0.11098622368386102: 1, 0.11098223144799546: 1, 0.11097213357832905: 1, 0.11096521212750482: 1, 0.11095376191769725: 1, 0.11095078034841693: 1, 0.11093867168448479: 1, 0.11091839179411797: 1, 0.11091833499086277: 1, 0.11090254843337972: 1, 0.11089947328820704: 1, 0.11088454217163436: 1, 0.11088414890093155: 1, 0.11084274491011098: 1, 0.1108389019800798: 1, 0.11081905235410094: 1, 0.11081891231841109: 1, 0.11081726045376086: 1, 0.11081345897282767: 1, 0.11077755422451205: 1, 0.11077532828073894: 1, 0.11076967802027299: 1, 0.11076189989482574: 1, 0.11072864912282163: 1, 0.11072664168664413: 1, 0.1107235459134077: 1, 0.11071677267525899: 1, 0.11069364360599382: 1, 0.11066827202034468: 1, 0.11066306305382632: 1, 0.11065215706950107: 1, 0.11063138197001994: 1, 0.11063104015281786: 1, 0.11062961696125834: 1, 0.11060916836407314: 1, 0.11060019515427059: 1, 0.1105982836972116: 1, 0.11059631679131618: 1, 0.11058570785894536: 1, 0.11058564414391459: 1, 0.11058306470004341: 1, 0.11056584314894088: 1, 0.11054931856935379: 1, 0.11054457209389432: 1, 0.11052286930575807: 1, 0.1105168720457218: 1, 0.11051543686739557: 1, 0.11050779635614222: 1, 0.11050270894007443: 1, 0.11049851776079907: 1, 0.11044827476354957: 1, 0.1104421774911811: 1, 0.11044131326297912: 1, 0.11042826720430188: 1, 0.11042825036485897: 1, 0.11041209173424787: 1, 0.11040408739304411: 1, 0.11039117845267826: 1, 0.11037846817031886: 1, 0.11037042690597255: 1, 0.11036068757853773: 1, 0.11035384679869059: 1, 0.11035143721141477: 1, 0.11034158143961505: 1, 0.11033767014496744: 1, 0.11033405994706599: 1, 0.11032234581238093: 1, 0.11031524879826848: 1, 0.11029470319820106: 1, 0.11025100089241843: 1, 0.11024938655106505: 1, 0.11024718353979097: 1, 0.11024712771495303: 1, 0.11021546288784682: 1, 0.11015691521203076: 1, 0.11015322215254236: 1, 0.11013783994399969: 1, 0.11012768454943958: 1, 0.11012344209895809: 1, 0.11010759602732501: 1, 0.11009910213501427: 1, 0.11009659527415878: 1, 0.1100772842311611: 1, 0.11006321582426623: 1, 0.11004376769645934: 1, 0.11004342334684428: 1, 0.11003453577663465: 1, 0.11001431473776288: 1, 0.10999846524276138: 1, 0.10999437445323332: 1, 0.10995862427361297: 1, 0.10994633747822279: 1, 0.10994598916490814: 1, 0.1099216623044863: 1, 0.10992086117915387: 1, 0.10990730128858171: 1, 0.10990556915192461: 1, 0.10988288855947674: 1, 0.10987676996582989: 1, 0.10987482761958396: 1, 0.10984866880426594: 1, 0.10982209742435937: 1, 0.10981942958383265: 1, 0.1098142381373102: 1, 0.10981031967560015: 1, 0.10980062627812033: 1, 0.10978903571832797: 1, 0.10978749801322829: 1, 0.10978412527171413: 1, 0.10977550042592166: 1, 0.10977548719388278: 1, 0.10975168799117187: 1, 0.10974060826620838: 1, 0.10973363896495947: 1, 0.10971373349216373: 1, 0.10970409365367484: 1, 0.10968606939764827: 1, 0.10968469211360751: 1, 0.1096751268453986: 1, 0.10967030975615397: 1, 0.10965126243915871: 1, 0.10964450956315944: 1, 0.10961840693817254: 1, 0.10960986027707151: 1, 0.10959896732961069: 1, 0.10957642077424662: 1, 0.10955959865212286: 1, 0.10954734971207494: 1, 0.10954551129695458: 1, 0.10953764599427698: 1, 0.10953414142613704: 1, 0.10953337965205991: 1, 0.10946507567427512: 1, 0.10945633589670001: 1, 0.10943713978531436: 1, 0.10941148422494786: 1, 0.1093927310875336: 1, 0.1093890251851926: 1, 0.10936984760134963: 1, 0.10934606815699735: 1, 0.10932010281127374: 1, 0.10931715019919269: 1, 0.10930645366195675: 1, 0.10928263832206417: 1, 0.10925151185830145: 1, 0.10924716473942112: 1, 0.10920801870959278: 1, 0.10920247232273093: 1, 0.10919781603994: 1, 0.10919397491723334: 1, 0.10919142882767255: 1, 0.10916324812807128: 1, 0.10916192647645655: 1, 0.10914899755959014: 1, 0.10912159612789731: 1, 0.10911482449081197: 1, 0.10910985055566323: 1, 0.10910636288542236: 1, 0.10910382565707305: 1, 0.10908585957382722: 1, 0.1090661041592712: 1, 0.10906461782635407: 1, 0.10906193550971219: 1, 0.1090420599461423: 1, 0.10903918464922999: 1, 0.1090340506298391: 1, 0.10902152171553316: 1, 0.10898284992190432: 1, 0.10897845344623959: 1, 0.10897530900615392: 1, 0.10897212153124085: 1, 0.10896874165126659: 1, 0.10896729371835161: 1, 0.10895582480138272: 1, 0.10894782469118139: 1, 0.10891059407921999: 1, 0.10890706601776722: 1, 0.10889775312014471: 1, 0.10889471486511329: 1, 0.10889453960257116: 1, 0.10888244102459167: 1, 0.1088720211744522: 1, 0.10887055826120466: 1, 0.10886460812988777: 1, 0.10886452237980287: 1, 0.10883166412976872: 1, 0.1088217872447626: 1, 0.10881224389833472: 1, 0.10880725785794652: 1, 0.10879151059933287: 1, 0.10878993810078107: 1, 0.10877397067910527: 1, 0.10876901673091681: 1, 0.10875516266619932: 1, 0.10875039978639446: 1, 0.10874022922706422: 1, 0.10873962095026092: 1, 0.10872597041544536: 1, 0.10871543354124774: 1, 0.10871530888599412: 1, 0.10870663884088466: 1, 0.10870433839721647: 1, 0.1086866630378281: 1, 0.10868619127160484: 1, 0.10868317014971753: 1, 0.1086760445244178: 1, 0.10866590558249624: 1, 0.1086626314759202: 1, 0.10866038343125047: 1, 0.108659019593548: 1, 0.10863975311368701: 1, 0.10863559064372746: 1, 0.1086343333826183: 1, 0.10860733303650683: 1, 0.10858631378498625: 1, 0.10858404254744097: 1, 0.10858213658778207: 1, 0.10856920905834305: 1, 0.10852233744190802: 1, 0.10851753270477806: 1, 0.10849183963485592: 1, 0.10847146606787339: 1, 0.10845588446457322: 1, 0.10842666237561537: 1, 0.10841828143055698: 1, 0.10839145157123442: 1, 0.10838193069697437: 1, 0.10837990444587246: 1, 0.10833759067210445: 1, 0.10832035804748258: 1, 0.10832035443843509: 1, 0.10831991780052444: 1, 0.10829836743347483: 1, 0.10829779113994564: 1, 0.10828985457338702: 1, 0.10828371339373974: 1, 0.10828280930131458: 1, 0.10827688784142556: 1, 0.10822906170207705: 1, 0.10822253956704572: 1, 0.10820700874008272: 1, 0.10819533451677218: 1, 0.10815647548580441: 1, 0.10815397631690439: 1, 0.10814687389019949: 1, 0.10809570097894951: 1, 0.10808881959759656: 1, 0.1080842739748282: 1, 0.10808382321659236: 1, 0.10804215092049782: 1, 0.10803810172384946: 1, 0.10803590295534138: 1, 0.10803585841668055: 1, 0.10803537193974598: 1, 0.10802261301319967: 1, 0.10801696161478364: 1, 0.10800717445514969: 1, 0.10797356712667094: 1, 0.10795892205010051: 1, 0.10795540238674801: 1, 0.10794671589994508: 1, 0.10794352729506027: 1, 0.10793079825424651: 1, 0.10791748398981436: 1, 0.10789237518073579: 1, 0.10788970174629471: 1, 0.10788192530575227: 1, 0.10786682511865683: 1, 0.10785811174369833: 1, 0.10785310706629346: 1, 0.10785281003859817: 1, 0.10782802279079691: 1, 0.10781131675284447: 1, 0.1077738463632698: 1, 0.10776540489603234: 1, 0.10775356715682985: 1, 0.10772624303678099: 1, 0.10772442507833024: 1, 0.10771177405009072: 1, 0.10769186378929087: 1, 0.10768391426204187: 1, 0.1076838431310996: 1, 0.10765567579303266: 1, 0.10765300465930915: 1, 0.10765155472155642: 1, 0.10764543965912939: 1, 0.10763319284960221: 1, 0.10757539322391266: 1, 0.10752529615003931: 1, 0.1075152872036873: 1, 0.10748880239931186: 1, 0.10748048720520606: 1, 0.10746414460051103: 1, 0.10746291185141334: 1, 0.10742873561430988: 1, 0.10742867419123303: 1, 0.10740335420645115: 1, 0.10739023130132237: 1, 0.10738774379620587: 1, 0.10738605241210601: 1, 0.10736900045775247: 1, 0.10733651067699179: 1, 0.1073346547566835: 1, 0.10733349202918925: 1, 0.10733064966891774: 1, 0.10731945378999426: 1, 0.10730603035289399: 1, 0.10729726901898086: 1, 0.10728558531612647: 1, 0.10728232505372577: 1, 0.10727996427415759: 1, 0.10727482203523984: 1, 0.10726990635559133: 1, 0.10726907308606756: 1, 0.10726898593312087: 1, 0.10726789093149786: 1, 0.10721901498398735: 1, 0.10720296666725809: 1, 0.10718028820837019: 1, 0.1071736300663772: 1, 0.10715302391437093: 1, 0.10714629003329114: 1, 0.10714016137475368: 1, 0.10712865735127165: 1, 0.10711972269595033: 1, 0.10708092677819198: 1, 0.10705706088632684: 1, 0.10704212183755379: 1, 0.10703168422575379: 1, 0.10700039163571826: 1, 0.10698227393490849: 1, 0.10698102890868216: 1, 0.10696385469032246: 1, 0.10695024276871903: 1, 0.10694003835994217: 1, 0.10693728188199786: 1, 0.10693534430737253: 1, 0.1069314106900273: 1, 0.10691542398359168: 1, 0.10689753147637647: 1, 0.10688213866671058: 1, 0.10684431150554818: 1, 0.10682545164215254: 1, 0.10679999005902052: 1, 0.1067968604390892: 1, 0.10676070673511694: 1, 0.10675793103913052: 1, 0.10675766913223646: 1, 0.10674633811352185: 1, 0.10674498287008574: 1, 0.10672198929110865: 1, 0.10671381412422934: 1, 0.10671197689581984: 1, 0.10671106355037764: 1, 0.10667732476133784: 1, 0.10666845718229011: 1, 0.10665918550752822: 1, 0.1066586353110057: 1, 0.10664762886504581: 1, 0.10662157008288065: 1, 0.10661751527081828: 1, 0.10659669610272135: 1, 0.10658579701356079: 1, 0.10658573182851055: 1, 0.10656994163068938: 1, 0.10656679106987196: 1, 0.10656299045371863: 1, 0.10654658999003258: 1, 0.1065395998089666: 1, 0.10651382986970677: 1, 0.10651286633373232: 1, 0.10649559604797817: 1, 0.10647532871663798: 1, 0.10647386049818086: 1, 0.10646349359255242: 1, 0.10645873458999203: 1, 0.10645470279210691: 1, 0.10641893210534424: 1, 0.10641868881522522: 1, 0.10641171498257568: 1, 0.10640590837211607: 1, 0.10640146363946242: 1, 0.10639997071219486: 1, 0.10639928242183186: 1, 0.10638088689097912: 1, 0.106373051057727: 1, 0.1063696851766882: 1, 0.10636186598969395: 1, 0.1063350429540179: 1, 0.10633389892228191: 1, 0.10633222580821089: 1, 0.10630592694637658: 1, 0.10630546224053106: 1, 0.10630059997768895: 1, 0.10628384933545973: 1, 0.10626320014839033: 1, 0.1062371559081096: 1, 0.10622980162853438: 1, 0.10622444051400981: 1, 0.10621986973190573: 1, 0.10621604222933946: 1, 0.10616568827243339: 1, 0.10615595427637843: 1, 0.10615214000662579: 1, 0.10614791803751222: 1, 0.10614319310007765: 1, 0.10613479055092963: 1, 0.10610401091797481: 1, 0.10610355915000903: 1, 0.10608926277112112: 1, 0.10606060191189763: 1, 0.10604864762727703: 1, 0.10604746769288956: 1, 0.10604107042328589: 1, 0.10602721137222511: 1, 0.1060168210046751: 1, 0.10601389041940966: 1, 0.1060116876118255: 1, 0.10601151281732013: 1, 0.10600753117493782: 1, 0.10599249262770802: 1, 0.10599087933523313: 1, 0.10598888354554593: 1, 0.105985539484563: 1, 0.10597739069038718: 1, 0.10596394469095777: 1, 0.10595264471851674: 1, 0.1059513425859103: 1, 0.10595055383587342: 1, 0.10593743540797569: 1, 0.1059292504003029: 1, 0.10592762606067536: 1, 0.10592043237130473: 1, 0.10591376938080513: 1, 0.10587792390088277: 1, 0.10586188472052378: 1, 0.10585967861442405: 1, 0.10585649941805232: 1, 0.10585480453231691: 1, 0.10583208546550137: 1, 0.10581093405819586: 1, 0.10580496419786807: 1, 0.10579816136872675: 1, 0.10578937049466049: 1, 0.10578307317999217: 1, 0.10578239681572564: 1, 0.10577736530619414: 1, 0.10575558778718476: 1, 0.10574398620850714: 1, 0.10574325897973785: 1, 0.10573805424983883: 1, 0.10573277760030403: 1, 0.10573179374288814: 1, 0.10570348518562224: 1, 0.10568856380635736: 1, 0.10568510762192956: 1, 0.10566354168522683: 1, 0.1056621867363832: 1, 0.10564669111364061: 1, 0.10562599792514415: 1, 0.10561832386615073: 1, 0.1056125691711617: 1, 0.1056113076725308: 1, 0.10559859301283134: 1, 0.10557857853261064: 1, 0.10555822375428596: 1, 0.10555597313999592: 1, 0.1055518009820008: 1, 0.10554577020384573: 1, 0.1055391280019146: 1, 0.10553885759311535: 1, 0.10553100925625368: 1, 0.10552191538888539: 1, 0.1055061195592488: 1, 0.10550300526891508: 1, 0.10550004333999416: 1, 0.10549579365887644: 1, 0.10549256848908505: 1, 0.10548723887930585: 1, 0.10548519424543781: 1, 0.10546742238177299: 1, 0.10545753343215025: 1, 0.10542878480579648: 1, 0.10542135568513507: 1, 0.10542072560450566: 1, 0.10541899487623853: 1, 0.10541491055634561: 1, 0.10539282552140292: 1, 0.10539000596281757: 1, 0.10537948502112633: 1, 0.10536763735533157: 1, 0.10535393834949525: 1, 0.10534324937663055: 1, 0.10533249312287611: 1, 0.10533131052754102: 1, 0.1052743811934945: 1, 0.10526181376005486: 1, 0.10525691752238103: 1, 0.1052558570703323: 1, 0.10525446041691135: 1, 0.105244774140408: 1, 0.10521836698160969: 1, 0.10519752118819883: 1, 0.10518909702920856: 1, 0.10515340293102624: 1, 0.10513836084922569: 1, 0.10512411638407247: 1, 0.10511505068516347: 1, 0.10511069111018077: 1, 0.10508983021955567: 1, 0.10507107321539876: 1, 0.10506699606798306: 1, 0.10506363939670564: 1, 0.10505759844322524: 1, 0.10500811384170004: 1, 0.10499280002240616: 1, 0.10498984313301025: 1, 0.1049572452738419: 1, 0.10493207997232055: 1, 0.10492875749099564: 1, 0.10491866432373971: 1, 0.10491701128858141: 1, 0.10491107374554308: 1, 0.10488919467027423: 1, 0.10484484044768781: 1, 0.10483844970074427: 1, 0.10483451724051618: 1, 0.10482599748518417: 1, 0.10482378533290464: 1, 0.10481453126033148: 1, 0.10481034411782299: 1, 0.10480905734994318: 1, 0.10480719596647417: 1, 0.10476823979224911: 1, 0.10476021202014979: 1, 0.10475924536135579: 1, 0.10475179995151294: 1, 0.10474130399384034: 1, 0.10472013194645652: 1, 0.10471499546788909: 1, 0.10470618935299962: 1, 0.10469305509453136: 1, 0.10468670878225687: 1, 0.10467266124226542: 1, 0.10467262398384429: 1, 0.10467145998076909: 1, 0.10466289537871291: 1, 0.10464487720563979: 1, 0.10462423958433303: 1, 0.10462233736165621: 1, 0.10460916894071734: 1, 0.1046043140693393: 1, 0.10458182951851376: 1, 0.10457013271522049: 1, 0.10455882464652165: 1, 0.10454056550983382: 1, 0.10453136943550245: 1, 0.10449845244836523: 1, 0.10448991086588931: 1, 0.10448863782397516: 1, 0.10448082325264939: 1, 0.10447697180091015: 1, 0.10447076951055931: 1, 0.10442080981215252: 1, 0.10441254730149907: 1, 0.10438334180961488: 1, 0.1043583975835036: 1, 0.10435757560533475: 1, 0.10432202513136665: 1, 0.10431834454729881: 1, 0.10431731061141893: 1, 0.10430882970451578: 1, 0.10428998620663647: 1, 0.10428179684138754: 1, 0.10428004443347033: 1, 0.10427374503893592: 1, 0.10426521065891554: 1, 0.1042624023547446: 1, 0.10425424011780599: 1, 0.10423846203668466: 1, 0.1042265482117077: 1, 0.10422612543916186: 1, 0.10421881126644585: 1, 0.10419889919990567: 1, 0.1041928297153204: 1, 0.10418010739272798: 1, 0.10415007220410552: 1, 0.1041417403836018: 1, 0.10412874825748228: 1, 0.10412501705384267: 1, 0.10412190069684538: 1, 0.1041135217157876: 1, 0.10410914987923124: 1, 0.10410206025742229: 1, 0.10410029617959619: 1, 0.10409622572070898: 1, 0.10404250033730164: 1, 0.10403991941396284: 1, 0.10402895274059321: 1, 0.10401640085196208: 1, 0.10400418654066931: 1, 0.1040003967218736: 1, 0.10399399125400131: 1, 0.10399258464376278: 1, 0.10399079476093072: 1, 0.1039715553106398: 1, 0.10396119860265707: 1, 0.10391701088693742: 1, 0.10391337736808033: 1, 0.10390187434955711: 1, 0.10390110071774854: 1, 0.10388410821307036: 1, 0.10386884670918185: 1, 0.10385448663247115: 1, 0.10385202557153972: 1, 0.1038442583938755: 1, 0.10383123937771563: 1, 0.1038243114900229: 1, 0.1038172338175556: 1, 0.1038163164407301: 1, 0.10378074611504613: 1, 0.10378051763726896: 1, 0.10377956801870475: 1, 0.10376726710135903: 1, 0.10374760960151978: 1, 0.10374042794611878: 1, 0.1037310761184132: 1, 0.10371154178824142: 1, 0.10369552257939038: 1, 0.10367940330888473: 1, 0.10367523066278136: 1, 0.10367320670684291: 1, 0.10366656876340331: 1, 0.10364932555765359: 1, 0.10363646126151381: 1, 0.10361955670327268: 1, 0.10361942014005908: 1, 0.10361138337242318: 1, 0.10360151833138222: 1, 0.10359247815942774: 1, 0.10358089222825333: 1, 0.10357884064205453: 1, 0.1035643460272721: 1, 0.10355725870025172: 1, 0.10355083796349913: 1, 0.10354828348933721: 1, 0.10352519220713671: 1, 0.10351980623056471: 1, 0.10351509215806015: 1, 0.10349024204911822: 1, 0.10347092506390687: 1, 0.10345601556054829: 1, 0.10345333334736377: 1, 0.10344338330179931: 1, 0.10342313186394129: 1, 0.10341910052355464: 1, 0.10341505706716814: 1, 0.10341003968322346: 1, 0.10340143625569251: 1, 0.1033711161778826: 1, 0.10337094888872141: 1, 0.1033441019870952: 1, 0.1033180523975081: 1, 0.10328596950743985: 1, 0.10327916332198002: 1, 0.10327554247755978: 1, 0.10326163634029528: 1, 0.1032464427125297: 1, 0.10323639078621259: 1, 0.10321357100432094: 1, 0.10320613347420497: 1, 0.10319410539135908: 1, 0.10318977480278793: 1, 0.10318546745103788: 1, 0.10318432636355158: 1, 0.1031771896766434: 1, 0.10317607402440704: 1, 0.10315468363795377: 1, 0.10314956132067771: 1, 0.10313989947222899: 1, 0.10313677006721969: 1, 0.10312184993237518: 1, 0.10311240939291212: 1, 0.1031031012795541: 1, 0.10309284101483034: 1, 0.10306197316541833: 1, 0.10305031313088386: 1, 0.10304845371256541: 1, 0.10303463608631715: 1, 0.10302170407164347: 1, 0.10301934379111519: 1, 0.10301635662390915: 1, 0.10301495092451594: 1, 0.10301328292251918: 1, 0.1030097847373454: 1, 0.10299981564859662: 1, 0.10296799976282345: 1, 0.10296783244973484: 1, 0.10296218145400951: 1, 0.10295349165056128: 1, 0.10293946109557413: 1, 0.10291953550533645: 1, 0.10290774055365946: 1, 0.10290276365641611: 1, 0.10287678028231706: 1, 0.10286450241987102: 1, 0.10283292085124372: 1, 0.10282847178039203: 1, 0.10282622809015497: 1, 0.10281492833176822: 1, 0.10280609282412494: 1, 0.1027612598424026: 1, 0.10274238343535537: 1, 0.10273737701183394: 1, 0.10273566727449128: 1, 0.10273504985086582: 1, 0.10273386372367715: 1, 0.10272292476487507: 1, 0.10271016182956372: 1, 0.10269425339459232: 1, 0.10268762826359068: 1, 0.10267265083530706: 1, 0.10266841893908152: 1, 0.10265543653687383: 1, 0.10264830942426173: 1, 0.10262456713024415: 1, 0.10262166408672681: 1, 0.10260160910426969: 1, 0.10257090577855293: 1, 0.10256040008741729: 1, 0.10254115510076213: 1, 0.10251095077042832: 1, 0.10250967486076189: 1, 0.10250845112393031: 1, 0.10249969590091089: 1, 0.10249679222600508: 1, 0.10249178982516011: 1, 0.10248667729299019: 1, 0.10248412563712819: 1, 0.10247062799012752: 1, 0.10241920027317099: 1, 0.10240570778698906: 1, 0.10240516999176692: 1, 0.10239198039621458: 1, 0.10239010499035597: 1, 0.10235078399478728: 1, 0.10235023921359154: 1, 0.10234286555828177: 1, 0.10233078879854117: 1, 0.10228743301928503: 1, 0.10226788781715795: 1, 0.10225940117550256: 1, 0.10222267692877308: 1, 0.10220184759821198: 1, 0.1021897479381341: 1, 0.10214374552583685: 1, 0.10213603586395407: 1, 0.10213372301963666: 1, 0.10211809978421081: 1, 0.10210885878644457: 1, 0.10209275824924749: 1, 0.10209176761298938: 1, 0.10209077162616778: 1, 0.10208876272208843: 1, 0.10206582660336404: 1, 0.10206450838188846: 1, 0.10205816836449905: 1, 0.10201078696712469: 1, 0.10200786520888876: 1, 0.10197001230960931: 1, 0.10196433443171711: 1, 0.10196398726477307: 1, 0.10195865009471294: 1, 0.10192140005895338: 1, 0.10190776383023095: 1, 0.10190360878382737: 1, 0.10187534398495122: 1, 0.10185016787067931: 1, 0.10182864927563252: 1, 0.10182640197421375: 1, 0.10181856911885537: 1, 0.10180439084374057: 1, 0.10180310618082949: 1, 0.10178985871665858: 1, 0.10175688620475021: 1, 0.1017549922563409: 1, 0.10174906186975353: 1, 0.10174271225418265: 1, 0.10173087810461633: 1, 0.10171838807467037: 1, 0.1017183435043485: 1, 0.10170142957732689: 1, 0.10167430086994055: 1, 0.10165962421761517: 1, 0.10164739878266363: 1, 0.10164437394913456: 1, 0.10164148211013527: 1, 0.10162848960106485: 1, 0.10162155878447725: 1, 0.1016047707162071: 1, 0.1015788003541887: 1, 0.10157624365293687: 1, 0.10157398140421964: 1, 0.10156755928833103: 1, 0.1015471453380947: 1, 0.10152122067282826: 1, 0.10150502893024986: 1, 0.1015041463751524: 1, 0.10149018599529816: 1, 0.10146774994222731: 1, 0.10146085825151281: 1, 0.10146029249808954: 1, 0.1014554475227326: 1, 0.10145402479095497: 1, 0.1014340526678616: 1, 0.10143050409541805: 1, 0.1014180660519397: 1, 0.10141300749071758: 1, 0.1014124089057102: 1, 0.10140571652996058: 1, 0.10138987458281727: 1, 0.1013743806891878: 1, 0.10137234065787593: 1, 0.10136148220103268: 1, 0.10134843809470982: 1, 0.10134458386965746: 1, 0.10133946654646708: 1, 0.10133178278773963: 1, 0.10133044660678103: 1, 0.10132382578884711: 1, 0.1013177968852013: 1, 0.1013138974185081: 1, 0.10131235829910683: 1, 0.10130701781049349: 1, 0.10130395934833999: 1, 0.1012834414649945: 1, 0.10127969814195957: 1, 0.10125704370027834: 1, 0.10125514089003294: 1, 0.10123483231631403: 1, 0.10122841413603348: 1, 0.101221197761186: 1, 0.10120406476452336: 1, 0.10117978693427918: 1, 0.10116365161343228: 1, 0.10116249487669879: 1, 0.10116194397775284: 1, 0.10111481840545317: 1, 0.10111161467197517: 1, 0.10109188796731286: 1, 0.10104288551048343: 1, 0.10103427242688408: 1, 0.10102805545951248: 1, 0.10100803196870112: 1, 0.10100210355492674: 1, 0.10098211202034416: 1, 0.10098074175234516: 1, 0.10096713254771952: 1, 0.10096679840555754: 1, 0.10095061873869784: 1, 0.10094109436730773: 1, 0.10092506394440996: 1, 0.10087095697846403: 1, 0.10086796494209738: 1, 0.1008664759042109: 1, 0.10081885921731883: 1, 0.10081037680360196: 1, 0.10080254759245207: 1, 0.10079457085335675: 1, 0.10077405169091722: 1, 0.10076978772744749: 1, 0.10076871474804654: 1, 0.10072329461235377: 1, 0.1007200769030081: 1, 0.10070181541760834: 1, 0.10069548415989593: 1, 0.1006688682696343: 1, 0.10066666271074105: 1, 0.10066358152904659: 1, 0.10065564090063601: 1, 0.1006498660009993: 1, 0.10063945937447002: 1, 0.10061183346892974: 1, 0.10059987917574542: 1, 0.10059256775179927: 1, 0.10056326623575579: 1, 0.10056228628189082: 1, 0.10054849886358615: 1, 0.10053833018154833: 1, 0.10052159165913002: 1, 0.10050845717939291: 1, 0.10050387484141335: 1, 0.10050029518916631: 1, 0.10049982380237973: 1, 0.10049739117389664: 1, 0.10049293501871243: 1, 0.10046697805895718: 1, 0.10046107241958456: 1, 0.10046095060238647: 1, 0.10045285600540359: 1, 0.10043703310447633: 1, 0.10043247906488879: 1, 0.10043134616102203: 1, 0.10041585929162826: 1, 0.10041360498785584: 1, 0.10041229676464831: 1, 0.10040847156636663: 1, 0.10039524023432843: 1, 0.10037573123565349: 1, 0.10037515777751439: 1, 0.10037300805387056: 1, 0.10034353775393266: 1, 0.10033047964098996: 1, 0.10032778631905348: 1, 0.10032379344704842: 1, 0.10032040574954694: 1, 0.10030254884372232: 1, 0.10029972918094114: 1, 0.1002688023112738: 1, 0.10026769371167227: 1, 0.10025829086687568: 1, 0.10025674815933208: 1, 0.10025194843358627: 1, 0.10024811557843287: 1, 0.10024773620759818: 1, 0.10024245029030064: 1, 0.1002322057135223: 1, 0.10022540549498206: 1, 0.1002242223090279: 1, 0.1001961262723364: 1, 0.10018427513586683: 1, 0.1001805364306568: 1, 0.10017453685416416: 1, 0.10017179796976693: 1, 0.10014829041924714: 1, 0.1001375650970088: 1, 0.10012335029897752: 1, 0.10012042589956105: 1, 0.10011169745432548: 1, 0.10010382374439793: 1, 0.10007411319842509: 1, 0.10007382305952355: 1, 0.10006730998422025: 1, 0.10006330738512184: 1, 0.1000595970320006: 1, 0.10005282714013751: 1, 0.10004869843377813: 1, 0.10004388928110805: 1, 0.10004115620164343: 1, 0.10000160641603001: 1, 0.099989407189705615: 1, 0.099984155059746282: 1, 0.09997481981166112: 1, 0.099971823300524149: 1, 0.099966620275270909: 1, 0.099957856571803713: 1, 0.099946553884464898: 1, 0.099936642396699582: 1, 0.099925859368010128: 1, 0.099915217173886059: 1, 0.099902595606490757: 1, 0.099894291241132194: 1, 0.099893957393953195: 1, 0.099878498010995617: 1, 0.099872949645900766: 1, 0.099839996451140056: 1, 0.099830877424863351: 1, 0.099814055705711793: 1, 0.099808089393603791: 1, 0.099777564436410116: 1, 0.099765839144386956: 1, 0.099756581948184292: 1, 0.099745806206558152: 1, 0.099744362860406111: 1, 0.099741629075345145: 1, 0.099729138898215858: 1, 0.09971987718206711: 1, 0.099716718181038985: 1, 0.099714704901966822: 1, 0.099709298921734468: 1, 0.099707065959374799: 1, 0.099684272387981221: 1, 0.0996529295689349: 1, 0.099645753140927829: 1, 0.099615719446035575: 1, 0.099613739123469297: 1, 0.099612891941291581: 1, 0.099606426621319452: 1, 0.099588312994555866: 1, 0.09958462597746312: 1, 0.099583604814716925: 1, 0.099569967945001031: 1, 0.099553937288456892: 1, 0.099548354920266077: 1, 0.099540447310751803: 1, 0.099539385421720916: 1, 0.099524024238117834: 1, 0.099522429320992187: 1, 0.099519591496887494: 1, 0.099502541687116475: 1, 0.099500755570551339: 1, 0.099487045596583001: 1, 0.099476469059612244: 1, 0.099458601734856364: 1, 0.099446477458746921: 1, 0.099444125141315648: 1, 0.099437065004944897: 1, 0.099385850466015391: 1, 0.099385842623166271: 1, 0.099364420420233746: 1, 0.099362859895542097: 1, 0.099359896496296812: 1, 0.099355446706345371: 1, 0.099352391793796818: 1, 0.099348122106452608: 1, 0.099342877991554362: 1, 0.09933018051500421: 1, 0.099328395079544898: 1, 0.099300947809163972: 1, 0.099288300497598264: 1, 0.099280075174159765: 1, 0.099277965419302616: 1, 0.099274060238793579: 1, 0.099251986919876647: 1, 0.099241108561826635: 1, 0.099239831836333878: 1, 0.099226074942044371: 1, 0.099216121224033421: 1, 0.099207898315858814: 1, 0.099204721225430614: 1, 0.099202132783267852: 1, 0.099201700452349745: 1, 0.099196672039834635: 1, 0.099182951140885073: 1, 0.09918278290762271: 1, 0.099179615037057051: 1, 0.099168257715353134: 1, 0.099168166790579368: 1, 0.099152783069327233: 1, 0.099135105243130517: 1, 0.099129429496407476: 1, 0.099123719036496499: 1, 0.099115022704799438: 1, 0.099105027470929141: 1, 0.099104008375945477: 1, 0.099100095084089027: 1, 0.09909025577833476: 1, 0.099088929245861088: 1, 0.099058356359455424: 1, 0.099057530638325786: 1, 0.099055307857226327: 1, 0.09905078355265183: 1, 0.099033449721864064: 1, 0.099028721893894875: 1, 0.099020791936899694: 1, 0.098986782068495899: 1, 0.09897037606213456: 1, 0.098965899285267639: 1, 0.098955623276210991: 1, 0.098938491944498316: 1, 0.09892391333998303: 1, 0.098921959566520487: 1, 0.098907155648067485: 1, 0.098897742410022499: 1, 0.098890438600839903: 1, 0.098866183425021292: 1, 0.098862554228153973: 1, 0.098855765800977352: 1, 0.098842224949034801: 1, 0.098841785068126881: 1, 0.098815832880241483: 1, 0.098800954180805908: 1, 0.098796782302512209: 1, 0.098793937669337389: 1, 0.098793646630570275: 1, 0.098775006792314324: 1, 0.098770239453557881: 1, 0.098758583202494282: 1, 0.098758025699034219: 1, 0.09875152587944945: 1, 0.098750073311635309: 1, 0.098749000692350916: 1, 0.098747450607257953: 1, 0.098713093841288582: 1, 0.098690656796659365: 1, 0.098675698299515766: 1, 0.098651339080847555: 1, 0.098648540313772112: 1, 0.098646569519700036: 1, 0.098630158282518296: 1, 0.098628247653531523: 1, 0.098593415218252767: 1, 0.098591759014243135: 1, 0.09857079101778915: 1, 0.09856869367529747: 1, 0.098545501268769917: 1, 0.098520459603886973: 1, 0.098477485371341808: 1, 0.098456493206313736: 1, 0.09842292676458525: 1, 0.098383160002004158: 1, 0.098362336701702691: 1, 0.098355472667201141: 1, 0.098352884840659877: 1, 0.098349090760156174: 1, 0.098348528850268874: 1, 0.098338318720871301: 1, 0.098322273297484011: 1, 0.09831482965909398: 1, 0.098305332516492622: 1, 0.098302527993675753: 1, 0.098289781057171649: 1, 0.098285208863327977: 1, 0.098284153485216116: 1, 0.098279425276731405: 1, 0.098274024938739019: 1, 0.098273150461491321: 1, 0.098264615214610732: 1, 0.098263900150563965: 1, 0.098262137499075281: 1, 0.09826122202946648: 1, 0.098244403791795373: 1, 0.09822543153564986: 1, 0.098220963750362822: 1, 0.098210377638222407: 1, 0.098198789794454122: 1, 0.098191730987576747: 1, 0.098181314116368809: 1, 0.098166363934215281: 1, 0.098125329931841906: 1, 0.098122211197943759: 1, 0.098107154625725501: 1, 0.098099489465218584: 1, 0.098082401397106209: 1, 0.098075700135063532: 1, 0.098049440046532224: 1, 0.098036840157689958: 1, 0.098031012912441123: 1, 0.098022736124540308: 1, 0.09801469251377723: 1, 0.098014199789598563: 1, 0.097994961749328036: 1, 0.097989311678395002: 1, 0.097981986732228007: 1, 0.097979467638840259: 1, 0.097970331286296092: 1, 0.097957977041228342: 1, 0.09792935161721128: 1, 0.097910404152723771: 1, 0.097901093007469769: 1, 0.097900687444312864: 1, 0.097885064600194804: 1, 0.09788411263751734: 1, 0.097882851724093251: 1, 0.097866970304483991: 1, 0.097854793963278106: 1, 0.097849950808456182: 1, 0.097832041570572945: 1, 0.097813346089826975: 1, 0.097791608565338278: 1, 0.097787334794353822: 1, 0.097782062141485257: 1, 0.097762996302750121: 1, 0.09776218690155683: 1, 0.097761524744363643: 1, 0.097752135942566737: 1, 0.097724952870326953: 1, 0.097717458469205778: 1, 0.0977067811662021: 1, 0.097698883814679852: 1, 0.097681754705032528: 1, 0.097674933135276379: 1, 0.097665849019037271: 1, 0.097640961742455123: 1, 0.097634214565458871: 1, 0.097613732719942184: 1, 0.097609651091044997: 1, 0.097545213305220466: 1, 0.097514352631560247: 1, 0.097509752181381831: 1, 0.097509267449847239: 1, 0.097508618569653593: 1, 0.097506706240838958: 1, 0.097501576608741716: 1, 0.097491957928648718: 1, 0.097487717679204722: 1, 0.097481048404581383: 1, 0.097459536470284214: 1, 0.097459002238712886: 1, 0.097432216929702095: 1, 0.097426417043216626: 1, 0.097422711665489048: 1, 0.097413780187998164: 1, 0.097406144874369313: 1, 0.097397463176159549: 1, 0.097395090226423064: 1, 0.097390681044449146: 1, 0.097390159701407311: 1, 0.097388022247774764: 1, 0.097387388147152379: 1, 0.097386817380187229: 1, 0.09738577533305473: 1, 0.09737936531223973: 1, 0.097372329015969428: 1, 0.09732959906642899: 1, 0.097316618623514553: 1, 0.097316055081226135: 1, 0.097315618568338966: 1, 0.09731195410279278: 1, 0.097306144869478445: 1, 0.097283429997160345: 1, 0.097252309528424979: 1, 0.097251267765748217: 1, 0.097248905880650202: 1, 0.097243789597339592: 1, 0.097241622254106513: 1, 0.097234250376793452: 1, 0.097228752000879451: 1, 0.097190127581625846: 1, 0.097189637637796811: 1, 0.097160468819533899: 1, 0.09715503993145036: 1, 0.097152231691509064: 1, 0.097145178391549514: 1, 0.0971275162226789: 1, 0.097117870739704418: 1, 0.097107847664637634: 1, 0.09709795113285094: 1, 0.0970890975579735: 1, 0.097087060306252831: 1, 0.097084669482555688: 1, 0.097051504720493426: 1, 0.097049735256099529: 1, 0.097044533153781698: 1, 0.097031725773564517: 1, 0.097017074464512548: 1, 0.097009204582456821: 1, 0.097001920310822998: 1, 0.097000392696227636: 1, 0.096996083385079424: 1, 0.096985993172323953: 1, 0.096980388780985124: 1, 0.096977130013914947: 1, 0.096974605907192479: 1, 0.096973689528055143: 1, 0.096962680622416239: 1, 0.096950120377882573: 1, 0.096933871159622334: 1, 0.09691194190537962: 1, 0.096895659543237242: 1, 0.096891570883853514: 1, 0.096882702341576296: 1, 0.096877602415713901: 1, 0.096862412446296647: 1, 0.096854529244377235: 1, 0.096838899594451647: 1, 0.096835178483935719: 1, 0.096816716105514983: 1, 0.09681665723726457: 1, 0.096815380611307719: 1, 0.096815109481503639: 1, 0.096807210461143642: 1, 0.096789932603745771: 1, 0.0967883480994641: 1, 0.096771708678756327: 1, 0.096764817767489436: 1, 0.096749650655259631: 1, 0.096716576016275063: 1, 0.096715708633241901: 1, 0.096678880962947009: 1, 0.096675672210671637: 1, 0.096673381901434388: 1, 0.09666653758826689: 1, 0.096658614730490339: 1, 0.096647788963966613: 1, 0.09664530103798262: 1, 0.096594307540133262: 1, 0.096583565135358831: 1, 0.096582795466759991: 1, 0.096559990624047076: 1, 0.096554428263786851: 1, 0.096545229838136765: 1, 0.096536901350989773: 1, 0.096534436874555915: 1, 0.096519833527270893: 1, 0.09651869239612354: 1, 0.096513542024333807: 1, 0.096503573585903168: 1, 0.096484024696697132: 1, 0.096482927609912852: 1, 0.096476134940371244: 1, 0.096432961614970988: 1, 0.096425156534622775: 1, 0.096416382347717808: 1, 0.09641517433268891: 1, 0.09641244847376694: 1, 0.0964035356266294: 1, 0.096384392462845345: 1, 0.096382640051812657: 1, 0.096382570936775061: 1, 0.096381027924280729: 1, 0.096369200710442859: 1, 0.096366967632145389: 1, 0.096347121557014664: 1, 0.096335249427015116: 1, 0.096309636434036006: 1, 0.096290602618142415: 1, 0.096280695541940839: 1, 0.096277716192824742: 1, 0.096277412069766713: 1, 0.096276861195020505: 1, 0.096276824466929617: 1, 0.096273454907216241: 1, 0.096262604700961013: 1, 0.096251660396405869: 1, 0.096242509102695301: 1, 0.096229814065678945: 1, 0.096228184958855004: 1, 0.096214692632762069: 1, 0.096211905589306326: 1, 0.096198786785001045: 1, 0.096198723215901574: 1, 0.096181040442153976: 1, 0.096177291080188354: 1, 0.096168395945217824: 1, 0.096160214869359717: 1, 0.096159759161098535: 1, 0.096140453383753474: 1, 0.096139327175234948: 1, 0.096124418384551186: 1, 0.096121301188457492: 1, 0.096115320455020109: 1, 0.096106577604011631: 1, 0.09609203171397819: 1, 0.096084231877930859: 1, 0.096079010725757863: 1, 0.096047060092644992: 1, 0.096040514098782628: 1, 0.096038739095582262: 1, 0.096034283495978964: 1, 0.096030949325229667: 1, 0.096016682340909862: 1, 0.096015505077124086: 1, 0.09601532299009205: 1, 0.096014985716739679: 1, 0.096013500747671107: 1, 0.095987263483440569: 1, 0.095983693874742024: 1, 0.095958991747880071: 1, 0.095956015348381524: 1, 0.095944043977022483: 1, 0.095928984490526836: 1, 0.095920870717757928: 1, 0.095913058208192625: 1, 0.095910993646326215: 1, 0.095908460350966993: 1, 0.095907765216525373: 1, 0.095885662695342586: 1, 0.095873903974363045: 1, 0.095872460320097719: 1, 0.095869005017212572: 1, 0.095866692460225361: 1, 0.095855267236113567: 1, 0.095850600746413994: 1, 0.095820338299185001: 1, 0.095801311735653205: 1, 0.09579723409573572: 1, 0.095786631268531403: 1, 0.095781551743462243: 1, 0.095774591580520846: 1, 0.095766710339952252: 1, 0.095766709769292233: 1, 0.095722634533568385: 1, 0.095716344309665649: 1, 0.095704133576341666: 1, 0.095697512541764521: 1, 0.095684511208282516: 1, 0.0956778475018428: 1, 0.095661659133087593: 1, 0.095654299082618244: 1, 0.095644331616719452: 1, 0.095638320379177799: 1, 0.095632056833884885: 1, 0.095629974163360956: 1, 0.095601319805280541: 1, 0.095597014498819965: 1, 0.095569645974960413: 1, 0.095558215947760705: 1, 0.095545938557081475: 1, 0.095541259817723878: 1, 0.095530159597035008: 1, 0.095516278105487337: 1, 0.095499098990575987: 1, 0.095499038067189665: 1, 0.09549124802367201: 1, 0.095489363788472947: 1, 0.095479653304508985: 1, 0.095474711663177239: 1, 0.095446615950537522: 1, 0.095444960813005006: 1, 0.095437107672184343: 1, 0.095433313683350174: 1, 0.095403534728792289: 1, 0.095372249119788477: 1, 0.095371746782062936: 1, 0.095365470787276113: 1, 0.095355998684752474: 1, 0.095353754573548805: 1, 0.095351535881089813: 1, 0.095339613536429502: 1, 0.095320270789669134: 1, 0.09531629335254134: 1, 0.095313102146580397: 1, 0.095279686693962765: 1, 0.095252819542570102: 1, 0.0952527546240442: 1, 0.095246721861333733: 1, 0.095230315440697044: 1, 0.095219796819668176: 1, 0.09521237594526806: 1, 0.095210286602674582: 1, 0.095207146924454658: 1, 0.095179930787860217: 1, 0.09517357153394583: 1, 0.095170813156532988: 1, 0.095129891286830262: 1, 0.095114218837829834: 1, 0.09511400164250404: 1, 0.095102224029412666: 1, 0.095094521175369789: 1, 0.09507224069462214: 1, 0.095068172126260342: 1, 0.09506600539166804: 1, 0.09504550694527622: 1, 0.095041277913015573: 1, 0.09503879936385258: 1, 0.095027474498495343: 1, 0.095021022810041322: 1, 0.095020186547115484: 1, 0.095019128327627475: 1, 0.095001731858160784: 1, 0.094987046851402149: 1, 0.094975817684884209: 1, 0.094975187129311675: 1, 0.094965923650669082: 1, 0.094958597282947518: 1, 0.094956141033969613: 1, 0.094939979267071151: 1, 0.09493907852085777: 1, 0.094935627638424003: 1, 0.094932507508859468: 1, 0.094919451185031589: 1, 0.094917665623712663: 1, 0.094914930514827453: 1, 0.09490284719345575: 1, 0.094892564484249153: 1, 0.094886875166773285: 1, 0.09487361918342474: 1, 0.094867521128727025: 1, 0.094861118644001971: 1, 0.094857102066704752: 1, 0.094846927214508756: 1, 0.094830858409288399: 1, 0.094829188477249887: 1, 0.094815727329208371: 1, 0.094814669606718888: 1, 0.094810046254706598: 1, 0.094803818479691188: 1, 0.094800554049984123: 1, 0.094791170450002654: 1, 0.094777666510963782: 1, 0.094757844347176282: 1, 0.09473558622007866: 1, 0.09470324314961874: 1, 0.094691566252521092: 1, 0.094677730226344722: 1, 0.094677315155391212: 1, 0.094675901986370881: 1, 0.094652974951123389: 1, 0.094652366262010165: 1, 0.094650618299016179: 1, 0.094647208903808067: 1, 0.094637259297886051: 1, 0.094624525056433692: 1, 0.094611123738605432: 1, 0.094596745945463259: 1, 0.09459196656030229: 1, 0.094591037335922862: 1, 0.094573152208367026: 1, 0.094570748141514074: 1, 0.094570550613111676: 1, 0.094566718327154659: 1, 0.094557744252784931: 1, 0.094528155997801025: 1, 0.094526721469200603: 1, 0.094511822434981657: 1, 0.094511671224471766: 1, 0.094510155424108538: 1, 0.094491627063004222: 1, 0.094483386630517835: 1, 0.09448303507624814: 1, 0.094482885374608139: 1, 0.094470274788035727: 1, 0.094463062778975024: 1, 0.09445010046688819: 1, 0.094442966342347612: 1, 0.094422040982332381: 1, 0.094421522974136002: 1, 0.094420804742352246: 1, 0.094416876604891897: 1, 0.094416575161506699: 1, 0.094414482055992621: 1, 0.09440811304310813: 1, 0.094403523228390962: 1, 0.09439474129055779: 1, 0.094389342210493068: 1, 0.094386619808243255: 1, 0.094384153524426334: 1, 0.094381424974985376: 1, 0.094366908670069402: 1, 0.09436664695347477: 1, 0.094364171228829161: 1, 0.094343594231217909: 1, 0.094324104047538521: 1, 0.094319839562539892: 1, 0.094319070406339633: 1, 0.094297223034234545: 1, 0.094274931297529119: 1, 0.094243458803361699: 1, 0.094224408294565451: 1, 0.094213791301898539: 1, 0.094205961574282931: 1, 0.094197996136138579: 1, 0.094187207723006719: 1, 0.09418691131214503: 1, 0.094169310068886403: 1, 0.094167924422231805: 1, 0.094152269412916531: 1, 0.094141046118528679: 1, 0.094130495891770055: 1, 0.094129201814572794: 1, 0.09412200118577993: 1, 0.094116963436142412: 1, 0.094113058536123992: 1, 0.094112088598638871: 1, 0.094111592835038227: 1, 0.094086475379524248: 1, 0.094072643576741721: 1, 0.094040223100500697: 1, 0.094034676694861069: 1, 0.094034250012692985: 1, 0.094031432414824881: 1, 0.094006181778603093: 1, 0.094004213847280749: 1, 0.093996949792404957: 1, 0.093975769360490832: 1, 0.093971062985497164: 1, 0.093961276087404316: 1, 0.093956150126209698: 1, 0.093950507135381847: 1, 0.093939924898757368: 1, 0.093939459420255667: 1, 0.093937498856292212: 1, 0.093932384081588105: 1, 0.093900356961160142: 1, 0.093895655099047334: 1, 0.093892886504711032: 1, 0.093877168041551246: 1, 0.093861553971930411: 1, 0.093860913620832667: 1, 0.093855993645627148: 1, 0.093847992534767777: 1, 0.093818100106664568: 1, 0.09381240930031555: 1, 0.093805743126038441: 1, 0.093796112868205814: 1, 0.09379363823115501: 1, 0.093786486888346926: 1, 0.093778607034717548: 1, 0.093774160753318972: 1, 0.093769840409318489: 1, 0.093769193131363615: 1, 0.093758583736789095: 1, 0.093757785915612887: 1, 0.09375431814879559: 1, 0.093752648236793024: 1, 0.093745851711477562: 1, 0.093738102646471658: 1, 0.093734554330369216: 1, 0.093726990526194376: 1, 0.09369749329780197: 1, 0.093691337111548256: 1, 0.09368209267043516: 1, 0.093676819609413764: 1, 0.093672292384836223: 1, 0.093669547483595808: 1, 0.093653606615788573: 1, 0.093648353816678465: 1, 0.093635738174929734: 1, 0.093635651540172865: 1, 0.093622850936627866: 1, 0.093597308458888931: 1, 0.093591515292006905: 1, 0.093585787452927616: 1, 0.093584412154566934: 1, 0.093568098383037174: 1, 0.093555248322604173: 1, 0.093553860448026466: 1, 0.093548877100788269: 1, 0.093530451557784264: 1, 0.093527308482636629: 1, 0.093521101507317572: 1, 0.093520467232547866: 1, 0.093504030248130407: 1, 0.093499281012655533: 1, 0.093498972421319784: 1, 0.093490108054492899: 1, 0.093475547419525268: 1, 0.093463477487260083: 1, 0.093451237221526387: 1, 0.093449558604708313: 1, 0.093444869106948561: 1, 0.093435513129940265: 1, 0.093432634978918724: 1, 0.093419513414328123: 1, 0.093419146076763951: 1, 0.093392765209033932: 1, 0.093381974570764983: 1, 0.093378267787435965: 1, 0.093371003719527806: 1, 0.093347525349941396: 1, 0.093346915412738221: 1, 0.093345875658345567: 1, 0.093330526655114293: 1, 0.093300012809294036: 1, 0.093297623688129799: 1, 0.093270567966131521: 1, 0.093255346598488081: 1, 0.093254591131406731: 1, 0.093251606061335229: 1, 0.09325050576058469: 1, 0.093242764569666098: 1, 0.093230156821598353: 1, 0.09322481442002549: 1, 0.093211109129811939: 1, 0.09320612620248464: 1, 0.093202547164720123: 1, 0.093196064637431783: 1, 0.09318437144329636: 1, 0.093178718482759784: 1, 0.09317637868793345: 1, 0.093153614434199949: 1, 0.093148875319562174: 1, 0.093140555800399996: 1, 0.093132807472790333: 1, 0.093129293015834017: 1, 0.093105079642688104: 1, 0.093103714779307706: 1, 0.093102490771824156: 1, 0.093092803330254201: 1, 0.093090375918731955: 1, 0.093086756372642965: 1, 0.093081541993326328: 1, 0.093074997856719133: 1, 0.093060347748475755: 1, 0.093054027512471799: 1, 0.093051866310205122: 1, 0.093035339001226625: 1, 0.093030808446972868: 1, 0.093028291617597819: 1, 0.09300620926966463: 1, 0.0930031114307701: 1, 0.092984412275340059: 1, 0.092975690460383842: 1, 0.092975625025536496: 1, 0.092963112508302692: 1, 0.092950275200578691: 1, 0.092932063135794024: 1, 0.092922481192835971: 1, 0.092917706439793746: 1, 0.092900172352644431: 1, 0.092898285386115553: 1, 0.092895486403036437: 1, 0.092890460429516528: 1, 0.092888263344840807: 1, 0.092887360944069103: 1, 0.09288349627101769: 1, 0.092883225808579217: 1, 0.092858305544650951: 1, 0.092844340073860609: 1, 0.092838139123571306: 1, 0.09283770325365015: 1, 0.09280499331887597: 1, 0.092788058312453653: 1, 0.092783097669628542: 1, 0.092781775674315545: 1, 0.092777759800205958: 1, 0.09277672598456603: 1, 0.092745634594614268: 1, 0.092733318474926316: 1, 0.092723183058922617: 1, 0.092723068593665484: 1, 0.092712802493932586: 1, 0.092708633385152686: 1, 0.092689573933813926: 1, 0.092678964628462521: 1, 0.092678301459628451: 1, 0.092647829096025369: 1, 0.092647538990076217: 1, 0.092643709363072951: 1, 0.092638004877609398: 1, 0.092635297610408673: 1, 0.092632342663644257: 1, 0.092602417253180594: 1, 0.092599994756977749: 1, 0.092588438967981995: 1, 0.092582616304145937: 1, 0.092575715448402623: 1, 0.092543336150157016: 1, 0.092537924393772883: 1, 0.092536237146886413: 1, 0.092509920293526768: 1, 0.092505816746345865: 1, 0.092501123643527736: 1, 0.09250026728029935: 1, 0.092493913046347173: 1, 0.092492083223842766: 1, 0.092486835623944497: 1, 0.092480381480757226: 1, 0.092443912657597382: 1, 0.092442751814931681: 1, 0.092440242962814709: 1, 0.092434337071454126: 1, 0.092420665144034339: 1, 0.092402123205273717: 1, 0.092385816864351641: 1, 0.092375984457980176: 1, 0.092367322634461541: 1, 0.092349990497321455: 1, 0.092348066064388973: 1, 0.092347866114847896: 1, 0.092327603861320592: 1, 0.092322264246429489: 1, 0.092297107985179289: 1, 0.092275172077371043: 1, 0.092264324975172396: 1, 0.092259742072923728: 1, 0.092259546129276851: 1, 0.092256622253034604: 1, 0.092250123587077751: 1, 0.092247392821725546: 1, 0.092231881362092566: 1, 0.092230854849520566: 1, 0.092229061455382538: 1, 0.092224691937950187: 1, 0.09221402662978101: 1, 0.092202594838662943: 1, 0.092195262164276828: 1, 0.09219232497424705: 1, 0.092188745365199387: 1, 0.092128523917935606: 1, 0.092102634947196504: 1, 0.092085268919579438: 1, 0.092070084543758049: 1, 0.092062842025543393: 1, 0.092043911686536778: 1, 0.09202037232571593: 1, 0.091992360733767514: 1, 0.091992306199923879: 1, 0.09196342318062499: 1, 0.091931263494978863: 1, 0.091929135724727148: 1, 0.091928383132677607: 1, 0.091912023236562737: 1, 0.091904615896183386: 1, 0.091901169663234139: 1, 0.091888236109299443: 1, 0.091880361934140314: 1, 0.091872756454728477: 1, 0.091871755761604987: 1, 0.091869291215928031: 1, 0.091840783588116676: 1, 0.091812283592242777: 1, 0.091806410352507209: 1, 0.091789823193183032: 1, 0.091753218108126311: 1, 0.091738718288234045: 1, 0.091725740534190484: 1, 0.091723723290994236: 1, 0.09170051291810212: 1, 0.091698714752475569: 1, 0.091693626570458764: 1, 0.09168945234364291: 1, 0.091689277964928137: 1, 0.091685118400947854: 1, 0.091680011513817564: 1, 0.091663161987434877: 1, 0.091661589866358251: 1, 0.09165344827886826: 1, 0.091651815625853839: 1, 0.091650957012389969: 1, 0.091649907489824822: 1, 0.091645329305984957: 1, 0.091643494703130421: 1, 0.091639957492405902: 1, 0.091609278337503514: 1, 0.091600045019465351: 1, 0.091584647470962371: 1, 0.091582053431524618: 1, 0.091576167259712127: 1, 0.091575372166547514: 1, 0.091574543460729782: 1, 0.091571496992511936: 1, 0.091568606912579883: 1, 0.091559401473388757: 1, 0.091553546761691834: 1, 0.091530979572656643: 1, 0.091510250200334792: 1, 0.091500316628598796: 1, 0.091487017895096195: 1, 0.091465889856167354: 1, 0.091449402088640816: 1, 0.091442543100308568: 1, 0.09144133045244994: 1, 0.091438818033630923: 1, 0.091433013324152462: 1, 0.091428296933564537: 1, 0.091427288018216021: 1, 0.091418317901412458: 1, 0.091395521455736997: 1, 0.091390434869438708: 1, 0.091382467263239481: 1, 0.091378087266500596: 1, 0.091371705972769446: 1, 0.091370409600781535: 1, 0.091366606602085926: 1, 0.091365750818545838: 1, 0.091364685498536574: 1, 0.091355506364013558: 1, 0.091351409680128129: 1, 0.091349067179713236: 1, 0.091335734237495483: 1, 0.091314669745630503: 1, 0.091256526670700874: 1, 0.091248153117219025: 1, 0.091248102127368599: 1, 0.091242806535790422: 1, 0.091237878356260849: 1, 0.091226636933257471: 1, 0.091218351887469823: 1, 0.09121502370308103: 1, 0.091206638026226028: 1, 0.091183394573590731: 1, 0.091175827383645089: 1, 0.091172349288407353: 1, 0.091119689023388559: 1, 0.091118782056613001: 1, 0.091108713108431397: 1, 0.091106313651463378: 1, 0.091100466157146814: 1, 0.091089677753692644: 1, 0.091079385060354956: 1, 0.09106256059059023: 1, 0.091024103291660496: 1, 0.091021972399811329: 1, 0.091017150855074044: 1, 0.091010503030700227: 1, 0.090993933390691908: 1, 0.090983903943478828: 1, 0.090982413134675949: 1, 0.090964311554717223: 1, 0.090963844198616861: 1, 0.090962188844407751: 1, 0.09096001783027538: 1, 0.090951652100101199: 1, 0.09094820106582166: 1, 0.090938459518377979: 1, 0.090920044299095865: 1, 0.090888772592071468: 1, 0.09088826968206927: 1, 0.090887538826664338: 1, 0.09088736186977206: 1, 0.090865740067087405: 1, 0.090844888624093345: 1, 0.090842895689267025: 1, 0.090838412045719241: 1, 0.090831524377302908: 1, 0.090826645028398684: 1, 0.090821182083821186: 1, 0.090820196222229255: 1, 0.090818123601789161: 1, 0.090816471400773674: 1, 0.090812649379109489: 1, 0.09081263283381924: 1, 0.090811939262636351: 1, 0.09080315783039164: 1, 0.090802137384995124: 1, 0.090792504675324598: 1, 0.090771022940319024: 1, 0.090767974247532648: 1, 0.090760844958952938: 1, 0.090736792308732356: 1, 0.090736209243522312: 1, 0.0907338572702754: 1, 0.090732042034205332: 1, 0.090717238340556769: 1, 0.090709834558101637: 1, 0.09070724920697304: 1, 0.090653428874576211: 1, 0.09064935442606005: 1, 0.090649207901434548: 1, 0.090635606716705508: 1, 0.090633599261029818: 1, 0.090633572874549012: 1, 0.090632247998474219: 1, 0.090622255754714581: 1, 0.090618646818166088: 1, 0.090618625670908601: 1, 0.09059600866710818: 1, 0.090594989237866963: 1, 0.090594945274191818: 1, 0.09058946367324662: 1, 0.090588579064340216: 1, 0.090587568127582396: 1, 0.090558140539779355: 1, 0.090551899550644327: 1, 0.090541318428164666: 1, 0.090525886471579387: 1, 0.090518299433619248: 1, 0.090517422917875415: 1, 0.090515431617594316: 1, 0.090505412687027775: 1, 0.090500442767213585: 1, 0.0904963618973606: 1, 0.090487232925689942: 1, 0.090480174312838321: 1, 0.090477227958789444: 1, 0.090464361223608319: 1, 0.09046023711114333: 1, 0.090451683707850963: 1, 0.090442193749319041: 1, 0.090414813082202172: 1, 0.090414294933819833: 1, 0.090410316352974182: 1, 0.090408749026507848: 1, 0.090405582954285593: 1, 0.090396866810890555: 1, 0.090396343172270674: 1, 0.090355539752916728: 1, 0.090348952530574636: 1, 0.090345711020723751: 1, 0.090340757134614633: 1, 0.090335087027455005: 1, 0.090332407735694328: 1, 0.090324821615500178: 1, 0.090320000658122637: 1, 0.090301304864292636: 1, 0.090301278057726184: 1, 0.090295342703165138: 1, 0.090259292442055009: 1, 0.090257199273842445: 1, 0.09024735217128424: 1, 0.090236423950274508: 1, 0.090223797172937589: 1, 0.090219710287560886: 1, 0.090195125713307525: 1, 0.09019350734304464: 1, 0.090184411898014238: 1, 0.09017949140492458: 1, 0.090166368720473469: 1, 0.090162611522230707: 1, 0.090144901751625955: 1, 0.090138437687634895: 1, 0.09012825087571065: 1, 0.090122247370953007: 1, 0.090110108882308526: 1, 0.090106669613726209: 1, 0.09009265095147595: 1, 0.090088298744775835: 1, 0.090086716785812135: 1, 0.090085052347485095: 1, 0.090080987579584521: 1, 0.09006179355526589: 1, 0.090058605156967453: 1, 0.090054852808086047: 1, 0.090053633626298701: 1, 0.090034287068456231: 1, 0.090030731534241307: 1, 0.090012507261606561: 1, 0.090012273494996714: 1, 0.089996980366350302: 1, 0.089994997962499199: 1, 0.089975806797421343: 1, 0.089975101391117446: 1, 0.089967740070596575: 1, 0.08996107481678689: 1, 0.089956670363689858: 1, 0.089953070406684793: 1, 0.089942610027332309: 1, 0.089924940816364721: 1, 0.08992323166058093: 1, 0.089920014104971357: 1, 0.089915172339484192: 1, 0.089910295404441259: 1, 0.089907997790702576: 1, 0.089900149920760605: 1, 0.089896314214485226: 1, 0.089880347682240652: 1, 0.089879537706593099: 1, 0.089877785949303249: 1, 0.089875664321258625: 1, 0.089863361640282385: 1, 0.089862281563632532: 1, 0.089861541455500488: 1, 0.08984697243433154: 1, 0.089840556863695603: 1, 0.089839456593011888: 1, 0.089825707600875507: 1, 0.089777992543185234: 1, 0.089773485860385097: 1, 0.08970621540215698: 1, 0.089696233884271864: 1, 0.089691676435725426: 1, 0.089688586073802951: 1, 0.089656388188276093: 1, 0.08964678366382664: 1, 0.089645900803821094: 1, 0.089645792436760297: 1, 0.089625210664819405: 1, 0.089620853805081849: 1, 0.089595303930915901: 1, 0.089594483167638059: 1, 0.089573406470127598: 1, 0.089572911450940984: 1, 0.089557368493050224: 1, 0.089549137850940694: 1, 0.0895484311407196: 1, 0.089544303303916037: 1, 0.089519511692628645: 1, 0.089495826233328926: 1, 0.089493232218012919: 1, 0.089404516685158711: 1, 0.089402704985187958: 1, 0.089389165472221421: 1, 0.089381788276981178: 1, 0.089372554105634577: 1, 0.089366217405182302: 1, 0.089348135034087547: 1, 0.089338881688906566: 1, 0.089333629662999209: 1, 0.089324476274678863: 1, 0.089317496601596685: 1, 0.089317452508330286: 1, 0.089316020502418575: 1, 0.089303056039450879: 1, 0.089301720605582294: 1, 0.089296323754552751: 1, 0.089291253835918669: 1, 0.089270558748542186: 1, 0.08926690966673051: 1, 0.08925793710816711: 1, 0.089247180980970675: 1, 0.089205499569846317: 1, 0.089193183329103407: 1, 0.089189608198006531: 1, 0.089184937590896018: 1, 0.089179906283564536: 1, 0.089169375742175261: 1, 0.089158321559576814: 1, 0.089154104835469122: 1, 0.089149668987892644: 1, 0.089139304192510371: 1, 0.089118467108580249: 1, 0.08911335592745355: 1, 0.089107199699958201: 1, 0.089089497336850593: 1, 0.089087455999398282: 1, 0.089076891380362955: 1, 0.089068415184006058: 1, 0.089066546319860385: 1, 0.089057707570177641: 1, 0.089053681212576688: 1, 0.089039599270876166: 1, 0.089031385210325747: 1, 0.089030546005211292: 1, 0.08902321078907903: 1, 0.089019990736707452: 1, 0.089019797114800375: 1, 0.089018371597430243: 1, 0.089014625712172724: 1, 0.088997887598755085: 1, 0.088985596120674304: 1, 0.088961236626524512: 1, 0.088924766239534866: 1, 0.088918464415041684: 1, 0.088907698148888603: 1, 0.088901119228345385: 1, 0.088900106005073809: 1, 0.088858447640578153: 1, 0.088840752256239053: 1, 0.088832438488003415: 1, 0.088828403266014863: 1, 0.08881925431591578: 1, 0.08881694126967235: 1, 0.088799374516281282: 1, 0.088795055224445946: 1, 0.08878580097614841: 1, 0.088779791762520571: 1, 0.088764807425122924: 1, 0.088754671495653067: 1, 0.088734128528262513: 1, 0.088733547988060366: 1, 0.088732256701722051: 1, 0.088721634598739732: 1, 0.088718390213535794: 1, 0.088717481523531955: 1, 0.088713050104575669: 1, 0.088684638186758397: 1, 0.088655172217286082: 1, 0.088644295794673492: 1, 0.088630717030691863: 1, 0.088622753939261625: 1, 0.088607437463322572: 1, 0.088596025781017412: 1, 0.088595645188652941: 1, 0.088589862058504734: 1, 0.088577303234780871: 1, 0.08854796410775248: 1, 0.088545241490210896: 1, 0.088504993914449062: 1, 0.08850388883163722: 1, 0.088487951544640273: 1, 0.088479511956016263: 1, 0.088475300607184254: 1, 0.088472618439982678: 1, 0.088471905950493146: 1, 0.088463018590887441: 1, 0.088454014659830021: 1, 0.088443558843388462: 1, 0.088439428867447267: 1, 0.088428902526528463: 1, 0.088406341277569259: 1, 0.088388907598026173: 1, 0.08836024280983891: 1, 0.0883579376130538: 1, 0.08835440336289313: 1, 0.088352667257227471: 1, 0.088351695264838243: 1, 0.088346647872554987: 1, 0.088341390572194436: 1, 0.08832192182406938: 1, 0.088315776713047398: 1, 0.088314385206765683: 1, 0.088301075252929656: 1, 0.088272619486684883: 1, 0.08826598456872578: 1, 0.088262398627437566: 1, 0.08826052887042779: 1, 0.088247947036970725: 1, 0.088243678391995511: 1, 0.088229447812323669: 1, 0.088228307545665158: 1, 0.088226371807033174: 1, 0.088196314557911271: 1, 0.088182191630566037: 1, 0.088154462335918796: 1, 0.088142205191534803: 1, 0.088115700401316582: 1, 0.088104298952945082: 1, 0.088092350348067297: 1, 0.088085907688146725: 1, 0.088085216425775811: 1, 0.088083263285619023: 1, 0.088073221823094489: 1, 0.088061643609195606: 1, 0.088040206927296402: 1, 0.088029415784025941: 1, 0.088025935353386667: 1, 0.088020937629581825: 1, 0.088018427943043501: 1, 0.088010795668089531: 1, 0.087986994435550192: 1, 0.087980397923259207: 1, 0.087970768587495141: 1, 0.087961980078873167: 1, 0.087953595585492775: 1, 0.087952182540536203: 1, 0.087940978265589609: 1, 0.087933563399364964: 1, 0.087928990510966684: 1, 0.087923112603423129: 1, 0.087918045972583639: 1, 0.087910239355920197: 1, 0.087909211404085114: 1, 0.087906911870466106: 1, 0.087901277113319326: 1, 0.087897714683933439: 1, 0.087893466303144971: 1, 0.087892723641566112: 1, 0.087879259607386642: 1, 0.087854791474415203: 1, 0.087840679868606053: 1, 0.087818503554381894: 1, 0.087809178807152818: 1, 0.087803347885221095: 1, 0.087802292106677449: 1, 0.087790940924948282: 1, 0.087779839549005978: 1, 0.087779010932442378: 1, 0.087777775757359094: 1, 0.087766528202272098: 1, 0.087763464020336773: 1, 0.087761104547728633: 1, 0.087732513636789522: 1, 0.087732424710322401: 1, 0.087729741565428065: 1, 0.087728749073836931: 1, 0.087708582434668614: 1, 0.087689026425293221: 1, 0.087688185346731201: 1, 0.087673077268489538: 1, 0.087672571656592618: 1, 0.087644645167065258: 1, 0.087627651417268249: 1, 0.087610346095675362: 1, 0.087610076784329638: 1, 0.087609875766071404: 1, 0.087592455920551399: 1, 0.087591701509857844: 1, 0.087587661906248129: 1, 0.087577418776247057: 1, 0.087540418031250511: 1, 0.087509194832356266: 1, 0.087500811055633912: 1, 0.087490868848046632: 1, 0.087461887585919801: 1, 0.087455715076282234: 1, 0.087445569638123277: 1, 0.08744445028532559: 1, 0.087443880491497886: 1, 0.087440874011073241: 1, 0.087438601708098723: 1, 0.087433455630044815: 1, 0.087389672840438123: 1, 0.087379849706814866: 1, 0.087351822187633071: 1, 0.087347690568274197: 1, 0.087343518600706063: 1, 0.087340305431061596: 1, 0.087323555828240279: 1, 0.087309279222064343: 1, 0.087299034900495009: 1, 0.087293044387112037: 1, 0.087274991882463793: 1, 0.087274213276144472: 1, 0.087269271179073349: 1, 0.087266992908980739: 1, 0.087266973456638586: 1, 0.087251193467744514: 1, 0.087247715271772039: 1, 0.087240369879132085: 1, 0.087237427591109223: 1, 0.087227960997150814: 1, 0.08722258836887381: 1, 0.087222213304816706: 1, 0.087202861459973885: 1, 0.087186265544156941: 1, 0.08718121888804492: 1, 0.087163980290243678: 1, 0.087162958137420365: 1, 0.087157721570218824: 1, 0.087138262915671255: 1, 0.087108589415363522: 1, 0.08710159110376256: 1, 0.087099369767485862: 1, 0.087090622781753418: 1, 0.0870862914650158: 1, 0.08708358993610027: 1, 0.087076862141813649: 1, 0.087060497907401224: 1, 0.087059823731424998: 1, 0.087056264581682891: 1, 0.087050895235989398: 1, 0.087048070434309899: 1, 0.087046776308300988: 1, 0.0870439585045268: 1, 0.087033990754249752: 1, 0.087025859245056472: 1, 0.08702008736738924: 1, 0.087015979262964574: 1, 0.087003279752217222: 1, 0.086994020351721685: 1, 0.086967402360023732: 1, 0.086964371902817417: 1, 0.086964318967320792: 1, 0.086959554524154756: 1, 0.086942628805322178: 1, 0.086939282351362709: 1, 0.086933152195115243: 1, 0.086932163907381482: 1, 0.086926408716183609: 1, 0.086919253976470795: 1, 0.086914841082860239: 1, 0.086914023907164725: 1, 0.086871375163523709: 1, 0.086870578136008125: 1, 0.086857676437867834: 1, 0.086857189217244141: 1, 0.086837282409738439: 1, 0.086836849885189249: 1, 0.086834195000343298: 1, 0.086833974751924628: 1, 0.086827604701241234: 1, 0.086827536358949867: 1, 0.08682493645400928: 1, 0.086818623900828812: 1, 0.086769082672315923: 1, 0.086764011092283322: 1, 0.08675666660009973: 1, 0.08674986600438836: 1, 0.086738532105354746: 1, 0.086735575170672458: 1, 0.086728623350019268: 1, 0.086708470238971852: 1, 0.086702404859636859: 1, 0.086701866339671377: 1, 0.086700778957189015: 1, 0.086689371780495489: 1, 0.086688657581489456: 1, 0.086683661500344428: 1, 0.086665481267125852: 1, 0.086661318159155204: 1, 0.086651204181915756: 1, 0.086647235182906499: 1, 0.08664346300168646: 1, 0.086637015166739523: 1, 0.086628452875423284: 1, 0.086619748133196464: 1, 0.086613895234611771: 1, 0.086611376359956263: 1, 0.086601427613113721: 1, 0.086596615728706167: 1, 0.086563317074557583: 1, 0.086547605662395624: 1, 0.086538039124359145: 1, 0.086537451432436588: 1, 0.086535756330202565: 1, 0.086515682166922805: 1, 0.0865151551853829: 1, 0.086484734641437522: 1, 0.086474961687670479: 1, 0.08645395106728393: 1, 0.086450686819706538: 1, 0.086441387743738829: 1, 0.08642513307356034: 1, 0.086417764513685297: 1, 0.086413455284714891: 1, 0.086407136102116866: 1, 0.086387962050555239: 1, 0.08637368338109086: 1, 0.086364853422669557: 1, 0.086351553053866825: 1, 0.086319200985980518: 1, 0.086313422634351905: 1, 0.086304158083037374: 1, 0.086302625421118662: 1, 0.086301442910831042: 1, 0.086289495009542583: 1, 0.086285589724109796: 1, 0.086284103612742052: 1, 0.086272932867323848: 1, 0.086270742389324875: 1, 0.086258275996961981: 1, 0.086253017520059289: 1, 0.086237950266490712: 1, 0.086229962568067267: 1, 0.086222642959924822: 1, 0.086218101292839217: 1, 0.086199748521075689: 1, 0.086199192309282885: 1, 0.086187209279366503: 1, 0.086176718498710309: 1, 0.086172002573422612: 1, 0.086164302187486691: 1, 0.086160186297735655: 1, 0.086152004575451857: 1, 0.086148111789703094: 1, 0.086138363929824338: 1, 0.086123249195828394: 1, 0.086104405705029557: 1, 0.086098692022389678: 1, 0.086095993696316014: 1, 0.086072962161876557: 1, 0.086070180154181636: 1, 0.086062839240228617: 1, 0.086051961462207893: 1, 0.086036848910550454: 1, 0.086032379715419591: 1, 0.086018503981233202: 1, 0.086008645960939809: 1, 0.085993286903010432: 1, 0.085991190546412077: 1, 0.085988452673128588: 1, 0.085976520130607109: 1, 0.085965764986314822: 1, 0.08596349777221865: 1, 0.085936701681094865: 1, 0.085922534173847764: 1, 0.085913041177333935: 1, 0.085903145606354536: 1, 0.085896152766051004: 1, 0.085863412193591643: 1, 0.085858528501374487: 1, 0.085834454637345903: 1, 0.08583036094957909: 1, 0.085822050201752681: 1, 0.085819624696776245: 1, 0.085818851135339463: 1, 0.08581689472811331: 1, 0.085805573469349278: 1, 0.085802517061569245: 1, 0.08580164722753171: 1, 0.085791787497427746: 1, 0.08577987859395185: 1, 0.085778772034076106: 1, 0.085771211615062043: 1, 0.085767494984875223: 1, 0.085753966775216434: 1, 0.085740591264213878: 1, 0.085731406649964995: 1, 0.085720977967535902: 1, 0.085701354621082748: 1, 0.085695317001264662: 1, 0.085695230541431577: 1, 0.085663051007989141: 1, 0.085662283729913732: 1, 0.085660107995418136: 1, 0.085659881426147222: 1, 0.08565141459256706: 1, 0.085646895744449211: 1, 0.085645896641233593: 1, 0.085638907615207288: 1, 0.085628626593174911: 1, 0.085627942225004958: 1, 0.085617873811028283: 1, 0.085608253221244032: 1, 0.085604315412228724: 1, 0.085602378156767411: 1, 0.085589928930754303: 1, 0.085575516474157884: 1, 0.085573330164644579: 1, 0.085571098643279067: 1, 0.085565957953672916: 1, 0.085564377199902883: 1, 0.085562522872463201: 1, 0.085557168198619041: 1, 0.085553558841025057: 1, 0.08553734428385007: 1, 0.085536728289528047: 1, 0.085536396999492767: 1, 0.085530261301160163: 1, 0.085520144674239712: 1, 0.085513805278031638: 1, 0.085506627574962746: 1, 0.085504189524274674: 1, 0.085501917085095525: 1, 0.085498055686289792: 1, 0.085497547066266263: 1, 0.085493683656901354: 1, 0.085479554433273847: 1, 0.085478708670953793: 1, 0.085474552328097947: 1, 0.085456399138092762: 1, 0.085453293823154475: 1, 0.085433653992553246: 1, 0.085430883143356215: 1, 0.085419206870852041: 1, 0.085411889197777757: 1, 0.085410632808127759: 1, 0.085402374393838229: 1, 0.085395404056479982: 1, 0.085392609619540247: 1, 0.085390403150201924: 1, 0.085387744199625026: 1, 0.085379760608483679: 1, 0.085379758661019489: 1, 0.085367028668968753: 1, 0.085365973533074554: 1, 0.085363673033124615: 1, 0.085358973988386905: 1, 0.085358780165740514: 1, 0.085348311842781827: 1, 0.085341051285100722: 1, 0.085340998288254089: 1, 0.08533414989938666: 1, 0.08533109110285747: 1, 0.085301317285575037: 1, 0.085298786977191787: 1, 0.085286759379277266: 1, 0.085282704150475591: 1, 0.085272995656842071: 1, 0.085268830717174879: 1, 0.085259334609567639: 1, 0.085237416241132208: 1, 0.085223536539287589: 1, 0.085222323074662945: 1, 0.085208965063260353: 1, 0.085207426059714972: 1, 0.085155533234102229: 1, 0.085146539322987394: 1, 0.085135339269492571: 1, 0.085118772966349357: 1, 0.085103641315548359: 1, 0.085102285743802575: 1, 0.085098213669581188: 1, 0.085085346841273363: 1, 0.085071718569340704: 1, 0.085056452046665773: 1, 0.085056184753864394: 1, 0.085051681705683696: 1, 0.085039639101566311: 1, 0.085036473000439483: 1, 0.085034928159023554: 1, 0.08502551834692447: 1, 0.085021835146680214: 1, 0.084985175428949511: 1, 0.084982108952198557: 1, 0.084980119500981749: 1, 0.084975835468808159: 1, 0.084973996960128112: 1, 0.084969448945132628: 1, 0.08496729578170617: 1, 0.084947925901704746: 1, 0.084944251583241842: 1, 0.084933367925023789: 1, 0.084929745949510721: 1, 0.084912912628886492: 1, 0.084911406407783066: 1, 0.084902035389800332: 1, 0.084896644918664749: 1, 0.084883065313761066: 1, 0.084876241460739965: 1, 0.084873755875071247: 1, 0.084872018672223909: 1, 0.084859157519909217: 1, 0.084848783992132595: 1, 0.084836691746535603: 1, 0.08483561694305651: 1, 0.084831349633292932: 1, 0.084819236476731188: 1, 0.084808909975281066: 1, 0.084804636028404726: 1, 0.084803187827655627: 1, 0.084798051599531271: 1, 0.08479686671622437: 1, 0.084792393740047184: 1, 0.084791661801142074: 1, 0.084763892605099644: 1, 0.084763488336460302: 1, 0.084760874223426402: 1, 0.084752609654860339: 1, 0.084741474734021049: 1, 0.084739776608649245: 1, 0.084732903703031062: 1, 0.084730189296126954: 1, 0.084719687025468768: 1, 0.084708235258106418: 1, 0.084687523999014941: 1, 0.0846867614669157: 1, 0.084679727598821752: 1, 0.084668560705337667: 1, 0.084665022098939322: 1, 0.084665017709951482: 1, 0.084661303667119728: 1, 0.084660930302575432: 1, 0.084647652799388864: 1, 0.084645423317511445: 1, 0.084636054884567907: 1, 0.084635084779764863: 1, 0.084634236143065228: 1, 0.084624881581674818: 1, 0.084623086208056184: 1, 0.084621141310066844: 1, 0.084614013329827154: 1, 0.084609675509338442: 1, 0.084608688009225899: 1, 0.084569809671120655: 1, 0.084568543754116904: 1, 0.084558679828173181: 1, 0.084536750571192407: 1, 0.084507279998060125: 1, 0.084502763376678169: 1, 0.084501278147154052: 1, 0.084500689456629946: 1, 0.084496597690786449: 1, 0.084488563046745929: 1, 0.084480451347258165: 1, 0.084476110428487627: 1, 0.084467964282071914: 1, 0.084465638742068666: 1, 0.084465565793307093: 1, 0.084462427715356295: 1, 0.084457644708622673: 1, 0.08445242905961918: 1, 0.084448336020201062: 1, 0.084440811180229003: 1, 0.084431614265128851: 1, 0.084405932125654698: 1, 0.084396802168298451: 1, 0.084395230447201749: 1, 0.084376490643074009: 1, 0.084359028677888651: 1, 0.084357111311897701: 1, 0.084350421218981245: 1, 0.084347583019426325: 1, 0.084345647789449418: 1, 0.084338584719876653: 1, 0.084337409611348155: 1, 0.084316512968215393: 1, 0.084311464182809548: 1, 0.08431005506876732: 1, 0.084307626518721868: 1, 0.084302493287810393: 1, 0.084297469257363672: 1, 0.084296401574800353: 1, 0.084265075454343377: 1, 0.084259820985128159: 1, 0.084252947922689655: 1, 0.084241507970301555: 1, 0.084237167220154674: 1, 0.08421969401414231: 1, 0.084215672473105546: 1, 0.084200471724296289: 1, 0.084193852619947357: 1, 0.084190543908500268: 1, 0.084190455606440215: 1, 0.084189398469225019: 1, 0.084167486198843927: 1, 0.084165453564653853: 1, 0.084160650793174613: 1, 0.084160134361799754: 1, 0.084152948134689889: 1, 0.084145264874318906: 1, 0.084144838757595777: 1, 0.084130025715179024: 1, 0.084120336088101696: 1, 0.084117474274759726: 1, 0.084115753515564065: 1, 0.084115326203502344: 1, 0.084105622141409514: 1, 0.08410519746725241: 1, 0.084064097509337299: 1, 0.084058045581261995: 1, 0.084054537770377288: 1, 0.084043552867502216: 1, 0.084041099974023342: 1, 0.084040578257281146: 1, 0.084037707227101396: 1, 0.084027963217651103: 1, 0.084027445411988783: 1, 0.084014121037986139: 1, 0.084013431001064842: 1, 0.084011761178361843: 1, 0.084007459268160875: 1, 0.084007329365092448: 1, 0.084000594789984312: 1, 0.083995587123233156: 1, 0.08397773461445121: 1, 0.083968034970312896: 1, 0.083964498097309659: 1, 0.083960435941296777: 1, 0.083959799721877615: 1, 0.083953904598180418: 1, 0.083948105073172574: 1, 0.083919234150357389: 1, 0.083912341981505378: 1, 0.083900768838323647: 1, 0.08389284691395886: 1, 0.083892735191502851: 1, 0.083888987626927577: 1, 0.083888815839916031: 1, 0.083878769088587324: 1, 0.083874423735229964: 1, 0.083822791779637792: 1, 0.083809480818805182: 1, 0.083805073072625288: 1, 0.083801265490132545: 1, 0.083786333277449915: 1, 0.083785207546935719: 1, 0.083776484524401812: 1, 0.08377305248450545: 1, 0.08376858491569325: 1, 0.083747813183766937: 1, 0.083747418900193771: 1, 0.08373207868039724: 1, 0.083729994870809302: 1, 0.083724110954112849: 1, 0.083705311743124608: 1, 0.083698449023037871: 1, 0.083694082899287897: 1, 0.083680533645152266: 1, 0.083680089271390298: 1, 0.083674928977480412: 1, 0.083660758195781795: 1, 0.083640731230569032: 1, 0.08362907856616901: 1, 0.083625667505484128: 1, 0.083604081020217352: 1, 0.083603793815963737: 1, 0.08359225937986306: 1, 0.083588622700092444: 1, 0.08358342420431937: 1, 0.08357970947754842: 1, 0.083574220480064257: 1, 0.083557307508711723: 1, 0.083550818893841791: 1, 0.083532345539828551: 1, 0.083530399022745561: 1, 0.083529330444370997: 1, 0.08352802939617944: 1, 0.083515106688627952: 1, 0.083512588301500754: 1, 0.083511836260541206: 1, 0.08350492535599259: 1, 0.083490646346146044: 1, 0.083490349977771786: 1, 0.083477274278204033: 1, 0.083469379390503404: 1, 0.083468584839657509: 1, 0.083468388895887008: 1, 0.083465739477070144: 1, 0.08344775916766381: 1, 0.083438131255177073: 1, 0.083424403778330339: 1, 0.083396795232497642: 1, 0.083391865854705011: 1, 0.083381280124195073: 1, 0.083360221506014645: 1, 0.083339758403145628: 1, 0.083330605349008713: 1, 0.083317879641605461: 1, 0.083302717950929583: 1, 0.083290184567110168: 1, 0.08328977728691396: 1, 0.083278920934542894: 1, 0.083266912753669084: 1, 0.0832487004786827: 1, 0.083241623909335163: 1, 0.083239153538293975: 1, 0.083230515442379818: 1, 0.083226616273444728: 1, 0.083221263330470432: 1, 0.083216304256488516: 1, 0.08321584926323683: 1, 0.083213916985884193: 1, 0.083213032170166568: 1, 0.083212858258208539: 1, 0.083194115917169673: 1, 0.08318634061031166: 1, 0.083184253246751452: 1, 0.083177905622033754: 1, 0.08317728530900946: 1, 0.083165124968203594: 1, 0.083163125562353543: 1, 0.083159326832787803: 1, 0.08315582195846008: 1, 0.083145361566717674: 1, 0.083138723361092459: 1, 0.083132313902231789: 1, 0.08313109764414911: 1, 0.083123441995930678: 1, 0.083121821150837855: 1, 0.083117750965657891: 1, 0.083106008926201305: 1, 0.083100344557878528: 1, 0.08309949630868961: 1, 0.083098877542213401: 1, 0.083088825847504127: 1, 0.083084284014159085: 1, 0.083070893054663628: 1, 0.083066217867428085: 1, 0.083064675910556052: 1, 0.083063939207775855: 1, 0.083059768039018295: 1, 0.083059361833942288: 1, 0.083048891073544601: 1, 0.083040437403739342: 1, 0.083034400071011136: 1, 0.083024691505280107: 1, 0.083015802660395016: 1, 0.083010425688758618: 1, 0.083010411055450387: 1, 0.083005896264601683: 1, 0.083000459992941283: 1, 0.082998424256282052: 1, 0.082964784140780831: 1, 0.082959804626123013: 1, 0.08294032025012045: 1, 0.082906258276505398: 1, 0.082896293843597105: 1, 0.082887674934409239: 1, 0.082885965238101572: 1, 0.082878435093339448: 1, 0.082876020825074698: 1, 0.082866612522555422: 1, 0.082864307078861596: 1, 0.082853864447524156: 1, 0.082851727756324781: 1, 0.082849132377794191: 1, 0.082840425310249113: 1, 0.08283997511404205: 1, 0.082835340309195093: 1, 0.082828883178502649: 1, 0.082828488647542997: 1, 0.082826793473493809: 1, 0.082822274979915678: 1, 0.082802383317590753: 1, 0.082800760800202711: 1, 0.082800267460950566: 1, 0.082794501168097667: 1, 0.082773129016614586: 1, 0.082754637739509737: 1, 0.082745401748907099: 1, 0.082744834583661109: 1, 0.0827247197163095: 1, 0.082723966198403706: 1, 0.082692191408994101: 1, 0.082689293305454811: 1, 0.082688276838988231: 1, 0.082676201071329988: 1, 0.082676005680551154: 1, 0.08265893097074016: 1, 0.082644859278532865: 1, 0.082644540626862426: 1, 0.082611953614643685: 1, 0.082611390565832374: 1, 0.082605270169221465: 1, 0.082589650415838586: 1, 0.082583606477327973: 1, 0.082574788501405427: 1, 0.082574100980706319: 1, 0.082569675029552175: 1, 0.082562324609000717: 1, 0.082552137226209202: 1, 0.082532714183721975: 1, 0.082530134749305983: 1, 0.082528423635358061: 1, 0.082524427487687846: 1, 0.082524017601663155: 1, 0.082523469804205982: 1, 0.082512219927192099: 1, 0.082510722236228726: 1, 0.082504981103318858: 1, 0.082491324485673895: 1, 0.082488491418301238: 1, 0.08248032894797408: 1, 0.082470667895395269: 1, 0.082463601568653774: 1, 0.08245867599786634: 1, 0.082456679578626138: 1, 0.082442328007630988: 1, 0.082425146711504138: 1, 0.082419001919608145: 1, 0.082415303823572594: 1, 0.082396007577621125: 1, 0.082393214485524127: 1, 0.08239038803606609: 1, 0.082370924328275127: 1, 0.082369915850852099: 1, 0.082361204275799849: 1, 0.082331260933974901: 1, 0.08231675300307971: 1, 0.082302443704908648: 1, 0.082300590215430416: 1, 0.082287568471213657: 1, 0.082282385680536335: 1, 0.082280195571236656: 1, 0.082273056049301241: 1, 0.082266300981318166: 1, 0.082263101338690803: 1, 0.082262491105500393: 1, 0.082244615971762469: 1, 0.082240875297951627: 1, 0.082217911597470314: 1, 0.082209438577954347: 1, 0.082179345491875319: 1, 0.082169545320011445: 1, 0.082144670086066879: 1, 0.082141908942997444: 1, 0.082140193567332029: 1, 0.08212634691965158: 1, 0.08212095980335829: 1, 0.08211808930930084: 1, 0.08211185756258492: 1, 0.082105583256121467: 1, 0.082099496674223588: 1, 0.082093454958849843: 1, 0.082064739038453585: 1, 0.082053231689377726: 1, 0.082043102142321467: 1, 0.082030926242007959: 1, 0.0820252809349864: 1, 0.082005333080857334: 1, 0.081968821941195327: 1, 0.081955704910418092: 1, 0.081951208476645387: 1, 0.081949954101421918: 1, 0.081931995741106017: 1, 0.081929038569280022: 1, 0.081928346831457916: 1, 0.081928009130008431: 1, 0.081922306273840492: 1, 0.081888526242666987: 1, 0.081885857900680953: 1, 0.081883531606689125: 1, 0.0818802822035746: 1, 0.08187450209619325: 1, 0.081863058450075382: 1, 0.081855651449293174: 1, 0.08182768112765014: 1, 0.081815075940870993: 1, 0.081806922011973565: 1, 0.081800547408255236: 1, 0.08178422969595095: 1, 0.081771949903620439: 1, 0.081767053639308307: 1, 0.081695412184765503: 1, 0.081694208936419821: 1, 0.08168132610587242: 1, 0.081679888459352853: 1, 0.081678807718015847: 1, 0.081677553790658108: 1, 0.081672491872230496: 1, 0.081654779327756499: 1, 0.08165355494567661: 1, 0.081649314649316601: 1, 0.081643522966033569: 1, 0.081641192515209959: 1, 0.081639730052160367: 1, 0.081634619503123382: 1, 0.081619569269506254: 1, 0.081619030396325162: 1, 0.081568085492589024: 1, 0.081561994398824347: 1, 0.081561473930976: 1, 0.081550497011808651: 1, 0.081546909812920024: 1, 0.081546134397754613: 1, 0.08154546286641412: 1, 0.081539978903570981: 1, 0.081534561939927391: 1, 0.081532351285414653: 1, 0.081527738817086623: 1, 0.081524682792442932: 1, 0.081504376902425776: 1, 0.081490628753373817: 1, 0.081485181853259522: 1, 0.081475697406701353: 1, 0.081465515990680415: 1, 0.081457262929351335: 1, 0.081440973207813225: 1, 0.081436932796059541: 1, 0.081426020650729472: 1, 0.081407917645490477: 1, 0.08140760497791312: 1, 0.081393249936784123: 1, 0.08138518472522846: 1, 0.081383505083675978: 1, 0.081379768544974723: 1, 0.081377412298420826: 1, 0.081373855112584978: 1, 0.081373395118649133: 1, 0.08136959366085765: 1, 0.081357986538315344: 1, 0.081351806700440926: 1, 0.081347190787137466: 1, 0.081338541361179406: 1, 0.081335521427858853: 1, 0.081314353183082319: 1, 0.081306244204936082: 1, 0.081305311085464946: 1, 0.081296420864523072: 1, 0.081290520348991493: 1, 0.081288944214581105: 1, 0.081286318896682863: 1, 0.081279849985692793: 1, 0.081279331627911955: 1, 0.081276649085009922: 1, 0.081259592397455699: 1, 0.081216652154221788: 1, 0.081214168328399575: 1, 0.081206069179309864: 1, 0.081204406516547659: 1, 0.081193547036796515: 1, 0.081182474442208941: 1, 0.08118140368359722: 1, 0.081180649463723525: 1, 0.081161153046041726: 1, 0.081160172111664139: 1, 0.081151106358580416: 1, 0.081146387549688587: 1, 0.081139045219462649: 1, 0.081138920259761299: 1, 0.081137352136716342: 1, 0.081131183836374202: 1, 0.081125333768265084: 1, 0.081114892345145545: 1, 0.081114359298786964: 1, 0.081110519254730729: 1, 0.081108660985531086: 1, 0.081100952708746094: 1, 0.081087319592422533: 1, 0.081082476692400041: 1, 0.081051107476919584: 1, 0.081043234332380878: 1, 0.081031620238737861: 1, 0.081019248068382427: 1, 0.080997843974200456: 1, 0.080990919379824305: 1, 0.080988252152115914: 1, 0.080983674382787252: 1, 0.080979250944620509: 1, 0.080971342114496164: 1, 0.080957414360586899: 1, 0.080943941459604166: 1, 0.08093840420191567: 1, 0.080935150059689043: 1, 0.080919756119558123: 1, 0.080902329926322653: 1, 0.080901549733832942: 1, 0.080899656082196431: 1, 0.080888623068592791: 1, 0.080884262549856673: 1, 0.080881621111700927: 1, 0.080879973459952875: 1, 0.08086052612214728: 1, 0.08085808873377702: 1, 0.080857741396862817: 1, 0.080857219222085275: 1, 0.08085103537995797: 1, 0.08082049710067532: 1, 0.080816668702555244: 1, 0.080811900269587844: 1, 0.080794902984228437: 1, 0.080789610272353415: 1, 0.080777442652979425: 1, 0.080749583981601772: 1, 0.080743736227883681: 1, 0.080743685378141805: 1, 0.080741457767328245: 1, 0.08073539945496605: 1, 0.080720999251486264: 1, 0.080708368748182116: 1, 0.080707120709265237: 1, 0.080666075513502647: 1, 0.080659748143034865: 1, 0.080656247637022394: 1, 0.080651924475493589: 1, 0.080634878718631592: 1, 0.080630650805878085: 1, 0.080617448055625873: 1, 0.080616504963054197: 1, 0.08061625574203854: 1, 0.080615184672222062: 1, 0.080611377902658848: 1, 0.080606214075248872: 1, 0.080592824068523153: 1, 0.08058949564838723: 1, 0.080580830651141452: 1, 0.080573858961081546: 1, 0.080569650596931455: 1, 0.08051605873188461: 1, 0.080513475190534395: 1, 0.080513211656832201: 1, 0.080512399942136506: 1, 0.080511283743827392: 1, 0.080504256820792749: 1, 0.080497654385086145: 1, 0.080490544243640952: 1, 0.080461666924807607: 1, 0.080457300951073396: 1, 0.080438581829166744: 1, 0.080436155034096166: 1, 0.080434042421541826: 1, 0.080420609586462091: 1, 0.080416541334901614: 1, 0.080412947393966455: 1, 0.080406224313096894: 1, 0.08040246277746689: 1, 0.080384560671419386: 1, 0.080379567894496087: 1, 0.080377705868477339: 1, 0.080374724360525882: 1, 0.080350745472456686: 1, 0.080336134275752397: 1, 0.080333299551059084: 1, 0.080327454972231566: 1, 0.080292158221296192: 1, 0.080276409242168723: 1, 0.080268237105433904: 1, 0.080266402359351063: 1, 0.080254401332325559: 1, 0.080241201223557893: 1, 0.080238745174766493: 1, 0.080208191937393092: 1, 0.080202090918912741: 1, 0.080198690707349252: 1, 0.080177182468890607: 1, 0.080175560691653366: 1, 0.080168882942243322: 1, 0.080168373289699432: 1, 0.080164454022892948: 1, 0.080156093520484736: 1, 0.080140083245172258: 1, 0.080135532671631926: 1, 0.08011834087771863: 1, 0.080110690890682373: 1, 0.080106517853035936: 1, 0.080100649297642434: 1, 0.080098158498334543: 1, 0.080084684826225896: 1, 0.080083927172129185: 1, 0.080070310784278079: 1, 0.080065345840801411: 1, 0.080061828598884457: 1, 0.080060558547423888: 1, 0.080060165861354449: 1, 0.080053702001703642: 1, 0.080051224351439784: 1, 0.080040060806201796: 1, 0.080031380480080933: 1, 0.080025469247878955: 1, 0.079998629462672027: 1, 0.079996143570526354: 1, 0.079994170753907967: 1, 0.079984955395802568: 1, 0.079982884142235769: 1, 0.079975812795185078: 1, 0.079967686087448253: 1, 0.079963385239794071: 1, 0.07994735452769465: 1, 0.079944841409951548: 1, 0.079940223497061799: 1, 0.079936072524182694: 1, 0.079917503343488183: 1, 0.079887305070018025: 1, 0.079883941869271211: 1, 0.079866497119856231: 1, 0.079865953287371158: 1, 0.079856469116850223: 1, 0.07984562696261957: 1, 0.079841227609599982: 1, 0.079839021796597312: 1, 0.079830567045631851: 1, 0.079794916835603288: 1, 0.079789218132623782: 1, 0.079773731707818415: 1, 0.079766000147607444: 1, 0.07976303879855344: 1, 0.079762825616127478: 1, 0.079761117531424564: 1, 0.079760496571160369: 1, 0.07975451703804573: 1, 0.079742049327809122: 1, 0.079737002100505786: 1, 0.079734071121235123: 1, 0.079731440440376708: 1, 0.079719080439062104: 1, 0.079713949643041238: 1, 0.079709892554463063: 1, 0.079702449762650784: 1, 0.079697549058554182: 1, 0.079682185990777935: 1, 0.079677518681099985: 1, 0.079675391319083202: 1, 0.079673890754180021: 1, 0.079647283680379349: 1, 0.079644469603666029: 1, 0.079641761332559166: 1, 0.079638555739694264: 1, 0.079633289873163815: 1, 0.079622921458153306: 1, 0.079620791254445392: 1, 0.07961428838386389: 1, 0.079604567885170036: 1, 0.079596321214219487: 1, 0.07959359240612697: 1, 0.079591121144777149: 1, 0.079581653814365369: 1, 0.079569245690617491: 1, 0.079554822972038503: 1, 0.079546616973187947: 1, 0.079546538312758444: 1, 0.079523256709427628: 1, 0.079516745705871958: 1, 0.079513645452255019: 1, 0.079491136661238027: 1, 0.079489568361106572: 1, 0.079488625628826054: 1, 0.079479720424079386: 1, 0.079462439615736194: 1, 0.079454183352449553: 1, 0.079449460599781932: 1, 0.079439433923592193: 1, 0.079430661494596599: 1, 0.079414600084923126: 1, 0.079405373525004597: 1, 0.079404824915428135: 1, 0.079386811668467658: 1, 0.079356609010202167: 1, 0.079343136377450912: 1, 0.079334091764409281: 1, 0.07932951366832075: 1, 0.079329494382760199: 1, 0.079327463747361715: 1, 0.0793270967773958: 1, 0.079322265612960713: 1, 0.079321304401542572: 1, 0.079308944877120563: 1, 0.079305762791263834: 1, 0.079286842645348493: 1, 0.079281677179391954: 1, 0.079255705385741518: 1, 0.079252736137848612: 1, 0.079247850257047947: 1, 0.079242717482718508: 1, 0.079237327380091246: 1, 0.079212404315029794: 1, 0.079204985492980148: 1, 0.079186735985226339: 1, 0.079184563716848053: 1, 0.079182030806170242: 1, 0.079176748297522095: 1, 0.079171030514597354: 1, 0.079169314799055826: 1, 0.07915102444336472: 1, 0.079150092973402406: 1, 0.079149769889078653: 1, 0.079139731559813825: 1, 0.079112305611654055: 1, 0.079106191369426843: 1, 0.079096043084899537: 1, 0.079089758543600439: 1, 0.079082669651806173: 1, 0.079072185958012853: 1, 0.079071635309323055: 1, 0.0790707088178592: 1, 0.079069061833850665: 1, 0.079057690816988116: 1, 0.079053766291585059: 1, 0.079045431708430106: 1, 0.079029952186589258: 1, 0.079027165058001933: 1, 0.078998613641359239: 1, 0.078988906200844367: 1, 0.078968136261756888: 1, 0.07896802130617242: 1, 0.078950679107989197: 1, 0.078944013208920111: 1, 0.078937964809442485: 1, 0.078933787204569492: 1, 0.078932333010965222: 1, 0.078922769793785347: 1, 0.078914574011382715: 1, 0.078907198558230862: 1, 0.078902142267297207: 1, 0.078901674424774054: 1, 0.078896691242228992: 1, 0.078884493399172612: 1, 0.078878396162842132: 1, 0.078871383669473341: 1, 0.078869046560441275: 1, 0.07885761838927885: 1, 0.078857424333880488: 1, 0.07884042702554625: 1, 0.078837776508152935: 1, 0.078833751108006972: 1, 0.078822004261491177: 1, 0.078821340400576756: 1, 0.078814287322885979: 1, 0.078813643914811438: 1, 0.078812170748133195: 1, 0.078810209799715258: 1, 0.078796519888623184: 1, 0.078795689843061234: 1, 0.078786878103711974: 1, 0.078784116287341333: 1, 0.078783420686171945: 1, 0.078775033887077989: 1, 0.078767637678681349: 1, 0.078759382152887289: 1, 0.078751612881678978: 1, 0.078734269289827755: 1, 0.078723735030031855: 1, 0.078716553039090933: 1, 0.078713308257667869: 1, 0.07869462687536978: 1, 0.07868515015195425: 1, 0.078678089217819408: 1, 0.078645889432123722: 1, 0.078634863994901869: 1, 0.078634342752163952: 1, 0.078631892075181314: 1, 0.078628650300048814: 1, 0.078625479659870726: 1, 0.078619400633652026: 1, 0.07861265120758977: 1, 0.078606446116752354: 1, 0.078589975831761416: 1, 0.078565730612933968: 1, 0.078539261188407164: 1, 0.078534239318611088: 1, 0.078524576901123869: 1, 0.078519254067702687: 1, 0.078519243513698822: 1, 0.078517782822942472: 1, 0.078505586826402921: 1, 0.078503765087248559: 1, 0.078500113712959729: 1, 0.078481965017563632: 1, 0.078469660350063988: 1, 0.078461787683551221: 1, 0.07845177414124313: 1, 0.0784462318901301: 1, 0.078426555691338121: 1, 0.078424720809198267: 1, 0.078424136724235344: 1, 0.078402688406104384: 1, 0.078397967264252452: 1, 0.078396966813349969: 1, 0.078386127478518808: 1, 0.078379658768529398: 1, 0.078368588011408696: 1, 0.078366324161730228: 1, 0.078361542116792859: 1, 0.078352584601985867: 1, 0.078340458376506272: 1, 0.078336590114057955: 1, 0.078334224583028259: 1, 0.078324342448282999: 1, 0.078322369762649294: 1, 0.078311078572524395: 1, 0.078309574055686795: 1, 0.07829151442118093: 1, 0.078290543859743517: 1, 0.078289205970306461: 1, 0.078265818720724134: 1, 0.07826043093097064: 1, 0.078260187962625183: 1, 0.078259791168483958: 1, 0.078245559513071342: 1, 0.078233300756003807: 1, 0.078226754509290369: 1, 0.078220315100479845: 1, 0.078216962081971195: 1, 0.078216855948638198: 1, 0.078215909812524159: 1, 0.078207586951123717: 1, 0.07820524274032184: 1, 0.078204413748568721: 1, 0.078200574186849087: 1, 0.07819563953164993: 1, 0.07819427268329554: 1, 0.078186549061306065: 1, 0.078181218085610377: 1, 0.078174554877470312: 1, 0.07815487040613027: 1, 0.078153430288695827: 1, 0.078148702562043995: 1, 0.078147870083033075: 1, 0.078141887085792144: 1, 0.078128440030053134: 1, 0.078124799093792358: 1, 0.07812433747330752: 1, 0.078121762900444619: 1, 0.078121451295114303: 1, 0.07811676481056716: 1, 0.078116165217175251: 1, 0.078109676266411687: 1, 0.078100743779779547: 1, 0.078056785299609383: 1, 0.078048459485651075: 1, 0.07804265399229604: 1, 0.078039141465456055: 1, 0.078006455048072257: 1, 0.078006034320132575: 1, 0.077977953536671585: 1, 0.077972055716371932: 1, 0.077970318761069593: 1, 0.077961638841317432: 1, 0.077950243958214468: 1, 0.077938543544565225: 1, 0.077918228447100335: 1, 0.077915842145804506: 1, 0.077898402449979989: 1, 0.077887824645867076: 1, 0.077879622237691556: 1, 0.077866069190122914: 1, 0.077863910880541898: 1, 0.077853287103433269: 1, 0.077839399571845061: 1, 0.07783278127080609: 1, 0.077830442194921939: 1, 0.077807565978989357: 1, 0.077798791547933191: 1, 0.07778989862544658: 1, 0.077768134455747498: 1, 0.077753597761585524: 1, 0.077750792022488122: 1, 0.077739494936981665: 1, 0.077734308247119077: 1, 0.077721527646434543: 1, 0.07771509444937702: 1, 0.077712483128781956: 1, 0.077712477965016874: 1, 0.077708401914700853: 1, 0.077698120309459523: 1, 0.077684130481540881: 1, 0.077676066203701669: 1, 0.077672348626323648: 1, 0.077667043549248763: 1, 0.077660472474264663: 1, 0.077649048602324383: 1, 0.07764832153615675: 1, 0.077647999335930681: 1, 0.077647064550149983: 1, 0.077645696513026857: 1, 0.077636828352111012: 1, 0.077612272030583213: 1, 0.077602823558543421: 1, 0.077601109832700743: 1, 0.077593699155154516: 1, 0.077591257986622295: 1, 0.077581029940293658: 1, 0.07757576529164395: 1, 0.077568710660757628: 1, 0.077562790526055081: 1, 0.077545935333799221: 1, 0.077539253607400979: 1, 0.077536248078651712: 1, 0.077536091816860234: 1, 0.077523828696226454: 1, 0.077515893477600212: 1, 0.077513243327648515: 1, 0.077502315604364047: 1, 0.077498147967050277: 1, 0.077497790694951357: 1, 0.077482742831635226: 1, 0.077462986208078732: 1, 0.077462488363282761: 1, 0.077459601174595355: 1, 0.077457182795552013: 1, 0.077451318706307337: 1, 0.077449047464051318: 1, 0.077447875166252386: 1, 0.077436302961639475: 1, 0.077435528236090442: 1, 0.07743497875645397: 1, 0.077432686646041304: 1, 0.077425830562418377: 1, 0.07741960353011898: 1, 0.077418210226077491: 1, 0.077418011956061419: 1, 0.077414613755979855: 1, 0.077412589507975388: 1, 0.077411947045637572: 1, 0.07740500390923015: 1, 0.077404422722180261: 1, 0.077403388805154016: 1, 0.077392997211636561: 1, 0.077361878173460713: 1, 0.077345099190969754: 1, 0.077343329217021403: 1, 0.077338880113314176: 1, 0.077325006473553323: 1, 0.077323493723431211: 1, 0.077314741959182878: 1, 0.077310388290265653: 1, 0.077309764587148028: 1, 0.077308432136955527: 1, 0.077294561673071374: 1, 0.07729399609593493: 1, 0.077293829272024467: 1, 0.077293165997301599: 1, 0.077287841329031895: 1, 0.077273807418626522: 1, 0.07726693773706321: 1, 0.077265222753700027: 1, 0.077257493706674354: 1, 0.077230897449834288: 1, 0.07722123991507103: 1, 0.077194987426142531: 1, 0.077190320455604741: 1, 0.077185756215926576: 1, 0.077179194490524503: 1, 0.07717586851535696: 1, 0.077174138611945761: 1, 0.077158027958233719: 1, 0.077155036921985914: 1, 0.07714196058416567: 1, 0.077136152222006621: 1, 0.077131767869217799: 1, 0.077131306200115324: 1, 0.077117064599805468: 1, 0.077101779449860922: 1, 0.077096936715534942: 1, 0.077093726537225432: 1, 0.07706953469417667: 1, 0.077064211785362255: 1, 0.07706269301756416: 1, 0.07705434561731056: 1, 0.077037414673888541: 1, 0.077035013989320375: 1, 0.077024101870603337: 1, 0.077012628686483897: 1, 0.077011780654283477: 1, 0.076999196762526978: 1, 0.076998528442096509: 1, 0.076959612475528891: 1, 0.076958568270445768: 1, 0.076946292421759335: 1, 0.076942377915815666: 1, 0.076931546486386421: 1, 0.076925140742727285: 1, 0.076923742025592254: 1, 0.076919616117117659: 1, 0.076917063888705145: 1, 0.076916268599267076: 1, 0.07691133850697085: 1, 0.076907657715550706: 1, 0.076902945189689209: 1, 0.07690235061178588: 1, 0.076889848069556732: 1, 0.076889520006509032: 1, 0.076885441271612662: 1, 0.076876276258655077: 1, 0.076872591735187332: 1, 0.076866915303290789: 1, 0.076860297433761562: 1, 0.07683646225461474: 1, 0.076834884638712256: 1, 0.076832366432848978: 1, 0.076829773444093349: 1, 0.076826784017668209: 1, 0.0768120005135733: 1, 0.076810821245202138: 1, 0.076809574329653713: 1, 0.076804946571070593: 1, 0.076804045019275097: 1, 0.076802731760318071: 1, 0.076800281080414742: 1, 0.076796388366238436: 1, 0.076792450704826765: 1, 0.07678004905383233: 1, 0.076779927762151909: 1, 0.076775342117949966: 1, 0.076770092526975919: 1, 0.076753494410732176: 1, 0.076752849887065613: 1, 0.076745462601535572: 1, 0.076745307769660792: 1, 0.076711525488242491: 1, 0.076703129422255045: 1, 0.076684261096929718: 1, 0.076683468789249337: 1, 0.076676028777631702: 1, 0.076675395005784824: 1, 0.076675001757605651: 1, 0.076657831242496741: 1, 0.076657821979030163: 1, 0.076648550385398834: 1, 0.076648484573731482: 1, 0.07663997427381998: 1, 0.076636868807367475: 1, 0.076629902181892473: 1, 0.076628891756367709: 1, 0.076608260770602496: 1, 0.076600662475850276: 1, 0.076595669560751978: 1, 0.076564902041103083: 1, 0.076563364341895729: 1, 0.076562709012576585: 1, 0.076543968533130557: 1, 0.076536393138390724: 1, 0.076531770252312892: 1, 0.076530421286164829: 1, 0.076527823242825005: 1, 0.076522226890525555: 1, 0.076506266062178627: 1, 0.076501122319898418: 1, 0.07649234953945297: 1, 0.076487152792151361: 1, 0.076485704437124394: 1, 0.076485163625747407: 1, 0.076475477730794619: 1, 0.076458313762375357: 1, 0.076454079136859643: 1, 0.076450563026413232: 1, 0.076447157681968886: 1, 0.076440388082955224: 1, 0.076437414730644443: 1, 0.076435202556306869: 1, 0.07642005758817029: 1, 0.07638270724388331: 1, 0.076382507894982993: 1, 0.076381805533541181: 1, 0.076368765658332602: 1, 0.076366465423084492: 1, 0.076366075786018867: 1, 0.076365208287339503: 1, 0.076358158977416435: 1, 0.07635627537772019: 1, 0.076353950843706525: 1, 0.076348053908188995: 1, 0.076334023776662402: 1, 0.076330114823327577: 1, 0.076322748832023168: 1, 0.076319305380874294: 1, 0.076310204511139013: 1, 0.076308575166696091: 1, 0.076304469810403938: 1, 0.076296686386320922: 1, 0.076293818210649178: 1, 0.076293171487813879: 1, 0.076268320086296054: 1, 0.07626627087587412: 1, 0.076254773767920933: 1, 0.07625125217632378: 1, 0.076248423881287358: 1, 0.076234892340640473: 1, 0.076233790229777651: 1, 0.076229401474797384: 1, 0.076223829846980715: 1, 0.076219024653705544: 1, 0.076204845913481215: 1, 0.076204684890048627: 1, 0.076198710562996916: 1, 0.076186511791531936: 1, 0.076145733388636339: 1, 0.076138204310551252: 1, 0.076134366747267646: 1, 0.076118594806773285: 1, 0.07611717932781227: 1, 0.07611164903916405: 1, 0.076111484344417182: 1, 0.07610112526487639: 1, 0.076093577679850949: 1, 0.076090006931289006: 1, 0.076087515106192161: 1, 0.076084300387060044: 1, 0.076074106924077511: 1, 0.076054950427724755: 1, 0.076050938116513145: 1, 0.076048567268789724: 1, 0.076045789570482525: 1, 0.076044064402953304: 1, 0.076042997466505585: 1, 0.076024159071225644: 1, 0.076023658378531297: 1, 0.076019282855058545: 1, 0.07601695367208236: 1, 0.07599980474012033: 1, 0.075990511892247009: 1, 0.075984687515627258: 1, 0.075982227473035235: 1, 0.075979573894461958: 1, 0.07597033940061132: 1, 0.075953061805364888: 1, 0.075950655395572289: 1, 0.075943145013861402: 1, 0.075913416997845748: 1, 0.075900465499166389: 1, 0.075897358218777175: 1, 0.075893317824322723: 1, 0.07589212131825325: 1, 0.07589111888189351: 1, 0.075872931930229343: 1, 0.075830021466626707: 1, 0.075824876724701465: 1, 0.075823631745190828: 1, 0.07581516369213015: 1, 0.075813356792016312: 1, 0.07578274052682013: 1, 0.07575320015653042: 1, 0.075736337218605218: 1, 0.075734261755865354: 1, 0.075729242876284436: 1, 0.075719971830634419: 1, 0.075708731437226909: 1, 0.075702023141289501: 1, 0.075684333437958135: 1, 0.075676649745650512: 1, 0.075669237043661561: 1, 0.075665861119537478: 1, 0.075665809239586115: 1, 0.07564432928865536: 1, 0.075636813850754631: 1, 0.075635641465426659: 1, 0.075626377659844757: 1, 0.075617588777763839: 1, 0.075585582738016077: 1, 0.075582332272364133: 1, 0.075572365214838538: 1, 0.075567706638453358: 1, 0.075565634593285858: 1, 0.075559358096736418: 1, 0.075557538240049946: 1, 0.075550792315183662: 1, 0.07555029356474055: 1, 0.075549633234696822: 1, 0.075545098709067338: 1, 0.075544696935790745: 1, 0.075544175549519102: 1, 0.075529975819606465: 1, 0.075510091917678865: 1, 0.075501614928050451: 1, 0.075498629870281192: 1, 0.07549696307713831: 1, 0.075495443282168145: 1, 0.075484191089107269: 1, 0.07546935650785877: 1, 0.075463660255787754: 1, 0.075463545567315299: 1, 0.07546275113606575: 1, 0.075460466529295445: 1, 0.075451422869761808: 1, 0.075446928436871286: 1, 0.075433451622984107: 1, 0.075429028882170776: 1, 0.075424595267449185: 1, 0.075419111840974662: 1, 0.075416972386762399: 1, 0.075408828461558108: 1, 0.07540867757178496: 1, 0.075393890108991612: 1, 0.075392976585332963: 1, 0.075368173259285728: 1, 0.075355572306039911: 1, 0.075348078872995231: 1, 0.075338489195107966: 1, 0.075335346581117263: 1, 0.075335176647019525: 1, 0.075327197678265789: 1, 0.075323628438581106: 1, 0.075310746110284502: 1, 0.075307140064926212: 1, 0.075302603037224219: 1, 0.075290794902607427: 1, 0.075290208462035518: 1, 0.075283286158174159: 1, 0.075279026560124696: 1, 0.07527750570374192: 1, 0.075259898468151329: 1, 0.075247734615668874: 1, 0.075240806308709607: 1, 0.075218314248793258: 1, 0.075212945849570403: 1, 0.075209177284997389: 1, 0.075200187561772311: 1, 0.075192594102183929: 1, 0.075170177684661194: 1, 0.075167152206080778: 1, 0.075166998642596669: 1, 0.075150444673247233: 1, 0.075150025317803737: 1, 0.075139316302989492: 1, 0.0751144130411633: 1, 0.075113277050109978: 1, 0.075111438586700496: 1, 0.075102641119991931: 1, 0.075095240546001821: 1, 0.075092171609679209: 1, 0.075085558527242857: 1, 0.075085554759901155: 1, 0.075078678127914189: 1, 0.075059918225652542: 1, 0.07505329934986904: 1, 0.075047291289086451: 1, 0.075042589545499874: 1, 0.075033192989022668: 1, 0.07502617209828838: 1, 0.075017357623016021: 1, 0.075007902158655493: 1, 0.075002878769358572: 1, 0.074997828481276188: 1, 0.074996418127901476: 1, 0.07499521747293382: 1, 0.07499258565613022: 1, 0.07496162928106212: 1, 0.074955537155160679: 1, 0.07494405243084068: 1, 0.074944000455952273: 1, 0.074939033664921925: 1, 0.074924024903788564: 1, 0.074918744000793472: 1, 0.074918037520044251: 1, 0.07491138433042259: 1, 0.074906322833333455: 1, 0.074892223701940097: 1, 0.07487511957264216: 1, 0.0748718909517231: 1, 0.074871763605687466: 1, 0.074868509847594231: 1, 0.074860459602942075: 1, 0.074856647912222643: 1, 0.074837274004321316: 1, 0.074831723906380182: 1, 0.074831146285768493: 1, 0.074828650274398223: 1, 0.074826654376126053: 1, 0.07482422646564682: 1, 0.074819697761719123: 1, 0.074819160270112581: 1, 0.074807141916701431: 1, 0.074804934993125655: 1, 0.074788603019849936: 1, 0.074782551134677716: 1, 0.074778283030141959: 1, 0.074774239466971662: 1, 0.074770677171908773: 1, 0.074770642768969039: 1, 0.074758362522016578: 1, 0.07475050384321659: 1, 0.074740149570757447: 1, 0.074729479698970827: 1, 0.074696241320330745: 1, 0.074693903863845973: 1, 0.074691598204065679: 1, 0.074684651733571486: 1, 0.074676674437875484: 1, 0.074675502247417744: 1, 0.074672564764232702: 1, 0.074652282627377067: 1, 0.07464463087302943: 1, 0.07464228817642457: 1, 0.074632739827534794: 1, 0.074628658439383294: 1, 0.074621737258106821: 1, 0.074619266191689154: 1, 0.074579176479685219: 1, 0.074566985805365901: 1, 0.074564450789021922: 1, 0.07455951435551629: 1, 0.074557672806761732: 1, 0.074556108333033805: 1, 0.074546613531965289: 1, 0.07454319396487516: 1, 0.074534199203972903: 1, 0.07453309865872812: 1, 0.074511735766074214: 1, 0.074511329684320241: 1, 0.074505496380485106: 1, 0.074484926458251305: 1, 0.074483899696680317: 1, 0.074476411819809116: 1, 0.074450962797536435: 1, 0.074443419301537209: 1, 0.074437284577683935: 1, 0.074419884529701316: 1, 0.074391481883753566: 1, 0.074387523844433534: 1, 0.074387487447001494: 1, 0.074370986604466019: 1, 0.074370030373648352: 1, 0.074367563057057551: 1, 0.074350023287492767: 1, 0.07434947116038379: 1, 0.07434666314742483: 1, 0.074345018999105977: 1, 0.074331980718225527: 1, 0.074284879813771451: 1, 0.074270746052322825: 1, 0.074257130234286178: 1, 0.074237753544376742: 1, 0.074235798753801027: 1, 0.074225926233643852: 1, 0.074223623124814189: 1, 0.074211801481275069: 1, 0.074202283884803044: 1, 0.074199222280802793: 1, 0.074197882544158295: 1, 0.074195419421796374: 1, 0.074171109696592533: 1, 0.074147504528151165: 1, 0.074143523303367653: 1, 0.074132522444981835: 1, 0.074132378475897126: 1, 0.074131721772170631: 1, 0.074126473007804172: 1, 0.074121454000422859: 1, 0.074116150799043629: 1, 0.074106725307531457: 1, 0.074101688188463938: 1, 0.074068064592986468: 1, 0.074043479434982032: 1, 0.074041794176679651: 1, 0.074040021443689: 1, 0.0740267906844021: 1, 0.074017624817158748: 1, 0.074003149780327696: 1, 0.074000015965339269: 1, 0.073992498634883164: 1, 0.073988414156497803: 1, 0.073986308650447183: 1, 0.073977339837890108: 1, 0.073943930867070504: 1, 0.073940371906205546: 1, 0.073919235495685395: 1, 0.073913922115472735: 1, 0.073911811429985597: 1, 0.073891462976107172: 1, 0.073889250250834801: 1, 0.073884180294021842: 1, 0.073882300383898106: 1, 0.073872577382290791: 1, 0.073867356082444352: 1, 0.073865098285688199: 1, 0.073865042572384923: 1, 0.073858359810885427: 1, 0.07384511765184705: 1, 0.073839659001667363: 1, 0.07383643897080569: 1, 0.073834734304709645: 1, 0.073828092957497218: 1, 0.073813175954759766: 1, 0.073790783744822397: 1, 0.073786400429520185: 1, 0.073781448533560862: 1, 0.073770114564562519: 1, 0.073756714971693838: 1, 0.073748335198087919: 1, 0.073745522514460662: 1, 0.073727868095135457: 1, 0.073722643526345971: 1, 0.073709014350376065: 1, 0.073685682786244711: 1, 0.073678263583565842: 1, 0.073667360361747009: 1, 0.073638783643518516: 1, 0.073638741180944933: 1, 0.073638304226099488: 1, 0.073627031485726885: 1, 0.073611750263663095: 1, 0.073605480533595752: 1, 0.073597104143600767: 1, 0.073595121982756487: 1, 0.073589439287199049: 1, 0.073588598262507368: 1, 0.073588536357172121: 1, 0.073581142462899041: 1, 0.073578582902586356: 1, 0.07357851064177541: 1, 0.073575643677378372: 1, 0.073568688089012083: 1, 0.073551753903041917: 1, 0.073548672352440461: 1, 0.073545364386293124: 1, 0.073538606952223987: 1, 0.07353404207589076: 1, 0.073522808658997824: 1, 0.073520009565096661: 1, 0.073517109819951618: 1, 0.073516546768312457: 1, 0.073512649272004724: 1, 0.073512192686968805: 1, 0.073511226848372524: 1, 0.073509398881081281: 1, 0.073495083951998746: 1, 0.073483664000378368: 1, 0.073474769739536205: 1, 0.073473492712697264: 1, 0.073456739878242305: 1, 0.073450780293450091: 1, 0.073447983475006903: 1, 0.073439549408393118: 1, 0.073438201695049027: 1, 0.073425127065867818: 1, 0.073416822366069889: 1, 0.073414791323049788: 1, 0.073414003344476314: 1, 0.073403773311445319: 1, 0.073386135044788955: 1, 0.073384353232573474: 1, 0.073382597622539833: 1, 0.073380632542015989: 1, 0.073368425329489909: 1, 0.073364231923028503: 1, 0.073343823692741908: 1, 0.07331085900399853: 1, 0.073284095375211994: 1, 0.073273900448544815: 1, 0.073269594428060192: 1, 0.073261665720418395: 1, 0.073248696427795745: 1, 0.073243311045253737: 1, 0.073240931586488103: 1, 0.073235215035099666: 1, 0.073232923768693101: 1, 0.073229173819777046: 1, 0.073206831600181307: 1, 0.073202362471862931: 1, 0.073201312632901624: 1, 0.073198618409695479: 1, 0.073196968298435916: 1, 0.073194176416508827: 1, 0.073183658129255189: 1, 0.073175073767110577: 1, 0.073156876984101976: 1, 0.073153811762543514: 1, 0.073148364617849695: 1, 0.073147097812144998: 1, 0.073144352185035288: 1, 0.073127337014375696: 1, 0.073119478642906757: 1, 0.073118132466490723: 1, 0.073116460821856327: 1, 0.073100416562364254: 1, 0.073084248988738124: 1, 0.073082789774480517: 1, 0.073082472194251971: 1, 0.073081259088109807: 1, 0.073073783086572669: 1, 0.073064213401718314: 1, 0.073058493002375241: 1, 0.073056815320140203: 1, 0.073033831726306647: 1, 0.07302291068479036: 1, 0.07301961236826586: 1, 0.07301575016857477: 1, 0.072991246075568575: 1, 0.072982691707495384: 1, 0.072977277522686068: 1, 0.072973191289814637: 1, 0.07296850915824242: 1, 0.072966010089489358: 1, 0.072962290330557206: 1, 0.072960014699004594: 1, 0.072957927384554921: 1, 0.07295254957852132: 1, 0.072941905166870782: 1, 0.072931351837042274: 1, 0.072913231734233086: 1, 0.07289698001868862: 1, 0.072894930306242223: 1, 0.072880445208046041: 1, 0.072880367000424412: 1, 0.072879461377178295: 1, 0.072875584384256245: 1, 0.07287121068157143: 1, 0.072864956339929565: 1, 0.072860597368151717: 1, 0.072858488141666122: 1, 0.072848928322354206: 1, 0.072836147687698582: 1, 0.072826785429736265: 1, 0.072826401082160111: 1, 0.072813752600924486: 1, 0.072811282550222428: 1, 0.07280814547579359: 1, 0.072792653802925003: 1, 0.072785684517409049: 1, 0.072785210811796702: 1, 0.072776370425696638: 1, 0.072767803877370446: 1, 0.072760394095727612: 1, 0.072757500929320776: 1, 0.072755601057519312: 1, 0.072746269550741594: 1, 0.072742930484492554: 1, 0.072736729616655477: 1, 0.07272942365620684: 1, 0.072724668624164018: 1, 0.07271477408749441: 1, 0.072709194251804887: 1, 0.072700466172714931: 1, 0.072691955533374888: 1, 0.072684778904598957: 1, 0.072682202457827833: 1, 0.072663006037131342: 1, 0.072649176917798181: 1, 0.072648833036819974: 1, 0.072644809046861644: 1, 0.07263399770529412: 1, 0.072627204901656944: 1, 0.072624345275352706: 1, 0.072621442190170402: 1, 0.072619355628409946: 1, 0.072605546839345003: 1, 0.072586673504316981: 1, 0.07257965682251924: 1, 0.072575770065647194: 1, 0.072572676201257985: 1, 0.072559551540122308: 1, 0.072554056274535719: 1, 0.072528547490268699: 1, 0.072520248760673089: 1, 0.072508414204362021: 1, 0.072504908049574879: 1, 0.072504026029696633: 1, 0.072503839525880132: 1, 0.072498722238437507: 1, 0.072497463968566322: 1, 0.072493532478431252: 1, 0.072486393755889986: 1, 0.072486178172775625: 1, 0.072484149074642124: 1, 0.072479881086249587: 1, 0.072465542203077382: 1, 0.072451229714336068: 1, 0.07244305262603222: 1, 0.072424216303883987: 1, 0.072406288753849884: 1, 0.072402975177921269: 1, 0.072399795720058641: 1, 0.072383578459174647: 1, 0.072381321636939611: 1, 0.072377275702521102: 1, 0.072368624658838032: 1, 0.072361146750691427: 1, 0.072340854263622634: 1, 0.072336405881225085: 1, 0.072331989684359471: 1, 0.072329521442282232: 1, 0.072322885213863319: 1, 0.072313133936138418: 1, 0.072308461553423145: 1, 0.072308378851359018: 1, 0.072306400871637352: 1, 0.07229067177262774: 1, 0.072286995361865169: 1, 0.072280935392360884: 1, 0.072270446625495519: 1, 0.072266790147723983: 1, 0.072261655620458554: 1, 0.072261612545975046: 1, 0.072252247212194212: 1, 0.072252140807941234: 1, 0.072216103914231056: 1, 0.072214184737067491: 1, 0.072205862277970531: 1, 0.072205843120686591: 1, 0.072190245830121944: 1, 0.072172193203380156: 1, 0.072163390707286168: 1, 0.072153973029693008: 1, 0.072143118161845279: 1, 0.072128915870157323: 1, 0.072120655786217513: 1, 0.072117463016824007: 1, 0.072117269554024838: 1, 0.072104810006428835: 1, 0.072099295212816022: 1, 0.072095431730747006: 1, 0.072088287769310908: 1, 0.072083493020677555: 1, 0.072070047914306795: 1, 0.072063733344961078: 1, 0.072058815944543525: 1, 0.072053215848988869: 1, 0.072052573279473217: 1, 0.072051822637133445: 1, 0.07204639154490794: 1, 0.072046341346151288: 1, 0.072044103617266278: 1, 0.072033397790663506: 1, 0.072012536448812225: 1, 0.072002497091832124: 1, 0.071995961942942346: 1, 0.071992572097523841: 1, 0.071972323089009055: 1, 0.071965150935104444: 1, 0.071964816025184203: 1, 0.071963163515964157: 1, 0.071952433509858527: 1, 0.071950812874597952: 1, 0.071944978239231683: 1, 0.071924899643285897: 1, 0.071918803804145434: 1, 0.071912780274871829: 1, 0.071910719777045815: 1, 0.071899198998197383: 1, 0.071896312867074041: 1, 0.071887519280448217: 1, 0.071885431423534873: 1, 0.071884503098194441: 1, 0.071871732398179816: 1, 0.071868294666327909: 1, 0.07186194769477465: 1, 0.071857157214680015: 1, 0.071853685127526642: 1, 0.071851090812542998: 1, 0.07184842175711699: 1, 0.071844814544349864: 1, 0.071842847379170988: 1, 0.071839237728110614: 1, 0.071837739273489465: 1, 0.071837656119926513: 1, 0.07181241187407067: 1, 0.071797403202087648: 1, 0.071790518841883699: 1, 0.07178408859819127: 1, 0.071770403085814699: 1, 0.07176040413953845: 1, 0.071760188868062208: 1, 0.071756931130498053: 1, 0.071740536662348017: 1, 0.071736120944002932: 1, 0.071724309299034478: 1, 0.071723165797367178: 1, 0.071716134849505661: 1, 0.071708035229705355: 1, 0.07169975253326609: 1, 0.071695154276911061: 1, 0.071694311459153906: 1, 0.071687573149602946: 1, 0.071680972749016941: 1, 0.0716803288251045: 1, 0.071658385427298396: 1, 0.071657386270564602: 1, 0.071645478039876295: 1, 0.071638119865012381: 1, 0.071620819426493482: 1, 0.071605847049563201: 1, 0.071597909933819912: 1, 0.071595364571140713: 1, 0.071587466737575836: 1, 0.071586354008817354: 1, 0.071581131756846689: 1, 0.071580779824479399: 1, 0.071576811058161605: 1, 0.071563537494466617: 1, 0.071545230994696743: 1, 0.071545134615182124: 1, 0.071544960267123411: 1, 0.071544227368955965: 1, 0.071536917946961195: 1, 0.071530472554304322: 1, 0.071530056044106768: 1, 0.071514778947211879: 1, 0.071511735403564036: 1, 0.071500690192890348: 1, 0.071496522969312193: 1, 0.071495555987613701: 1, 0.071493204594079179: 1, 0.071488556988632546: 1, 0.071470817208150447: 1, 0.071469229424177175: 1, 0.071460148972053134: 1, 0.071457535515086601: 1, 0.071455603236891138: 1, 0.071446963402270428: 1, 0.071445391134747363: 1, 0.071439864282969806: 1, 0.071434459225756863: 1, 0.071432779780746081: 1, 0.071411636677750731: 1, 0.071408781629400397: 1, 0.071400738887957726: 1, 0.07139222865456725: 1, 0.071381273898159431: 1, 0.071376569470659013: 1, 0.071374211572606261: 1, 0.071351110460528153: 1, 0.071350981366045979: 1, 0.071350729848957822: 1, 0.071350311292702154: 1, 0.071346464102148968: 1, 0.071345592323872609: 1, 0.071343389767005549: 1, 0.07132421493098251: 1, 0.071324007563967909: 1, 0.071311280422468051: 1, 0.071308776722461178: 1, 0.071298937787494451: 1, 0.07127935654555656: 1, 0.07127659391028715: 1, 0.071263609507082076: 1, 0.071245007396769477: 1, 0.071239083517870783: 1, 0.071238518528958641: 1, 0.071238241022766047: 1, 0.071237459155390689: 1, 0.07123340649685235: 1, 0.071201622047682378: 1, 0.071191122392136583: 1, 0.071183713050099129: 1, 0.071172656750551316: 1, 0.071166842971877517: 1, 0.071159273952336913: 1, 0.071153193831843028: 1, 0.071152606309013738: 1, 0.071147988935028453: 1, 0.071145968022155642: 1, 0.071129736959969894: 1, 0.071128677558307637: 1, 0.071121800225559667: 1, 0.071118852160871895: 1, 0.071103961319914311: 1, 0.07108575425606703: 1, 0.07108424842796876: 1, 0.07106028153598834: 1, 0.071045785523681404: 1, 0.071031059993355045: 1, 0.071029029177537964: 1, 0.071024977903529032: 1, 0.071024848943318078: 1, 0.071004380582575438: 1, 0.070997347796775634: 1, 0.070994280839613483: 1, 0.070992060454747624: 1, 0.07097765691471368: 1, 0.070970190752904477: 1, 0.07096854053032553: 1, 0.070962944361751865: 1, 0.07095623141947123: 1, 0.070951233658261809: 1, 0.070940064366593752: 1, 0.070928249798115808: 1, 0.070904819693637947: 1, 0.070899749965497333: 1, 0.070896080716014331: 1, 0.070870958199230449: 1, 0.070865720584246061: 1, 0.07086090560589392: 1, 0.070844124328197366: 1, 0.070842917999883889: 1, 0.070842658681471327: 1, 0.070839785039967781: 1, 0.070838283592637677: 1, 0.070836131599527716: 1, 0.070831716650858537: 1, 0.070831218641020322: 1, 0.070829535718656494: 1, 0.070826058552908452: 1, 0.070821643213116875: 1, 0.070819599257616744: 1, 0.07080251852865696: 1, 0.070797148658887282: 1, 0.070797032668496684: 1, 0.070775901442537287: 1, 0.070775177247465307: 1, 0.07077468487242139: 1, 0.070772042383415723: 1, 0.070755949378034547: 1, 0.070751581721133106: 1, 0.070746704003159452: 1, 0.070741728426137213: 1, 0.070741277863034982: 1, 0.07072906102659314: 1, 0.070728090285962247: 1, 0.070717046890649338: 1, 0.070691709437847111: 1, 0.07068821871748418: 1, 0.070685394522370729: 1, 0.070684420607630014: 1, 0.070680026660541809: 1, 0.070673707917203316: 1, 0.070666421245223973: 1, 0.070661304283966372: 1, 0.070660904285001991: 1, 0.070660105853898481: 1, 0.070657241041501284: 1, 0.070637414812124197: 1, 0.070632340071486846: 1, 0.070631402784674516: 1, 0.070629882398178342: 1, 0.070629060598135285: 1, 0.070627404322531992: 1, 0.070597535005129386: 1, 0.070588883693447416: 1, 0.070584803105068705: 1, 0.070584621842587916: 1, 0.070581405502412542: 1, 0.070563584743615904: 1, 0.070557720658197057: 1, 0.070550945311906213: 1, 0.070550140561928321: 1, 0.07054734170744173: 1, 0.070535758828820391: 1, 0.070525350150277513: 1, 0.070509681199109261: 1, 0.070507727411126292: 1, 0.070502428125108388: 1, 0.070469335509577999: 1, 0.070467521925038273: 1, 0.070456296496327925: 1, 0.070449314887356479: 1, 0.070428397677742505: 1, 0.070414742354434803: 1, 0.070408586591314076: 1, 0.070406675690825149: 1, 0.070405957589485174: 1, 0.070387933056830804: 1, 0.070376966528656715: 1, 0.070370506880822345: 1, 0.070353452036402267: 1, 0.070340575653514745: 1, 0.070331971149247413: 1, 0.07030222063763128: 1, 0.070301218194558895: 1, 0.070300914883085791: 1, 0.07029346276435483: 1, 0.070289640073037618: 1, 0.070280223849561591: 1, 0.070272597448653884: 1, 0.070255347114806091: 1, 0.070254623675218231: 1, 0.070250586852478064: 1, 0.070231055842985834: 1, 0.070228621520567705: 1, 0.070219642004219346: 1, 0.070207786663582142: 1, 0.070202334003291872: 1, 0.070197133727723071: 1, 0.07016632747419517: 1, 0.070162898804276411: 1, 0.070152554228935807: 1, 0.070129405686995078: 1, 0.070124794003968843: 1, 0.070122734754352406: 1, 0.070105478549537484: 1, 0.07009679071330005: 1, 0.070094707235841325: 1, 0.070094685485077649: 1, 0.070093806456223776: 1, 0.070087410934908861: 1, 0.070083519121754825: 1, 0.070077283774930471: 1, 0.070067135425018065: 1, 0.070046188581842875: 1, 0.07004253696568781: 1, 0.070042382305797485: 1, 0.070031275796192102: 1, 0.070031086266288983: 1, 0.07002102134007189: 1, 0.070017726266045244: 1, 0.070012235313733434: 1, 0.070003906047502645: 1, 0.069998269350615275: 1, 0.06999530065544704: 1, 0.069988885578056201: 1, 0.069986269082572342: 1, 0.069984461637471629: 1, 0.069958947824265691: 1, 0.069943725432282222: 1, 0.069941720104420763: 1, 0.069940722892661886: 1, 0.069922917553177658: 1, 0.069913393042582053: 1, 0.069911485158690376: 1, 0.069905698270159064: 1, 0.069902640055834742: 1, 0.069900126848872313: 1, 0.069897027553781729: 1, 0.069894466559040358: 1, 0.069870246437479328: 1, 0.069868528260068494: 1, 0.069868178431074152: 1, 0.069857860756232154: 1, 0.069857844034728431: 1, 0.069848760049502134: 1, 0.069818850310295374: 1, 0.069816751039741609: 1, 0.069804731605409079: 1, 0.069795801203860572: 1, 0.069785045661607981: 1, 0.069774587454451559: 1, 0.069773990865474492: 1, 0.06976956732069714: 1, 0.06976909947866082: 1, 0.069768495291728252: 1, 0.069767879538998878: 1, 0.069763079321723279: 1, 0.069760504394902473: 1, 0.069749334137616692: 1, 0.069746516715575788: 1, 0.069727997540242587: 1, 0.069715311941465602: 1, 0.069708223794172047: 1, 0.069690707817195122: 1, 0.069676905406494377: 1, 0.069659700037391817: 1, 0.069659032935471057: 1, 0.069658608855126578: 1, 0.069654204991931812: 1, 0.069644358217470531: 1, 0.069616293186110456: 1, 0.069606670308223761: 1, 0.069604088488603166: 1, 0.069586797138825859: 1, 0.069584601412958316: 1, 0.06958286694969712: 1, 0.069578171188683563: 1, 0.06957059042747582: 1, 0.069570463935113042: 1, 0.069553306249202265: 1, 0.069546531874901146: 1, 0.069523514129391589: 1, 0.069519651548173855: 1, 0.069500276680554682: 1, 0.069497939738204478: 1, 0.069492390588229272: 1, 0.069490827586241061: 1, 0.069489752224154419: 1, 0.069489200295116807: 1, 0.069478321244559479: 1, 0.069468197614177191: 1, 0.069460200755540324: 1, 0.069454528065039323: 1, 0.069454307909512153: 1, 0.069449778648935631: 1, 0.069446351494697009: 1, 0.069445608069330866: 1, 0.069440143313429889: 1, 0.069434920783170387: 1, 0.069428363970261614: 1, 0.069420302869797917: 1, 0.069419917311203352: 1, 0.069407110474822786: 1, 0.069404044284628291: 1, 0.0694013569477758: 1, 0.069391975901285527: 1, 0.06939010876318441: 1, 0.069387134227769126: 1, 0.069381294381187467: 1, 0.069378657542366495: 1, 0.069365530534979819: 1, 0.069357969068736064: 1, 0.069357754582667422: 1, 0.069356961576756665: 1, 0.069341830777887165: 1, 0.069335009521114502: 1, 0.069293936995432154: 1, 0.069287840219364863: 1, 0.069277737047149596: 1, 0.069270602217575417: 1, 0.069257588860835939: 1, 0.069243174611141392: 1, 0.069242081955003809: 1, 0.069239287690973567: 1, 0.069229703709882823: 1, 0.069221634914558502: 1, 0.069196830186156105: 1, 0.069187806126026333: 1, 0.069179418590094285: 1, 0.06917825360003628: 1, 0.069171777569197956: 1, 0.069167975312192376: 1, 0.069157527459566367: 1, 0.069151634793519476: 1, 0.069119233672183533: 1, 0.069112839880645399: 1, 0.069112723098672849: 1, 0.069110310850411125: 1, 0.069103749064252609: 1, 0.069100851769523658: 1, 0.069095443106874418: 1, 0.069094671596256416: 1, 0.069093955166407206: 1, 0.069084663302912977: 1, 0.069063267293808572: 1, 0.069050820117673412: 1, 0.069048111295618886: 1, 0.069045840850710388: 1, 0.069044456499733342: 1, 0.069041763635737538: 1, 0.069039728399690053: 1, 0.069031632889144115: 1, 0.069027685790866544: 1, 0.069011878793251075: 1, 0.069000379516920007: 1, 0.068995161035074054: 1, 0.068994381472706007: 1, 0.068993989770753952: 1, 0.068989422807239284: 1, 0.068984789745354991: 1, 0.068981981855635727: 1, 0.068964778647742697: 1, 0.06896426519528652: 1, 0.068953348207972651: 1, 0.068948715625069948: 1, 0.068946406720742995: 1, 0.068941749380161121: 1, 0.068938281745716964: 1, 0.068924690604621114: 1, 0.068924337564247845: 1, 0.068916901976731851: 1, 0.068907098647772003: 1, 0.068899853195577176: 1, 0.068890437101111118: 1, 0.068885138769087723: 1, 0.068882720251626381: 1, 0.068871304230421052: 1, 0.068840852368415001: 1, 0.068838069088216339: 1, 0.068834866014646334: 1, 0.06882954707930565: 1, 0.068824508373411808: 1, 0.0688243948137858: 1, 0.068823903808362841: 1, 0.068821953583148368: 1, 0.068810325697343341: 1, 0.068781350377446565: 1, 0.068781299850088878: 1, 0.068780088401229927: 1, 0.068778433903221942: 1, 0.068777202631559259: 1, 0.068765676122289399: 1, 0.068764908002718561: 1, 0.068749000801599069: 1, 0.068743703949597917: 1, 0.068741435327328126: 1, 0.068740830608535627: 1, 0.068732454357273931: 1, 0.068728620002722132: 1, 0.0687205934023008: 1, 0.06869825714430812: 1, 0.068690837683473213: 1, 0.068690085549226274: 1, 0.068686114943415866: 1, 0.068685550085978292: 1, 0.068683132098409969: 1, 0.068677317320843798: 1, 0.068668289931514387: 1, 0.068663086732957984: 1, 0.068651682329739713: 1, 0.068648001534912559: 1, 0.06864778084908868: 1, 0.068642695450118377: 1, 0.068633671772271393: 1, 0.068613691055481915: 1, 0.068588655360819789: 1, 0.068585798328100078: 1, 0.068579323643853496: 1, 0.068576769784914199: 1, 0.068564449608477226: 1, 0.068560032989763806: 1, 0.068532583079248741: 1, 0.068527928630364832: 1, 0.06852540906287273: 1, 0.068489456178231406: 1, 0.068480718136739407: 1, 0.068480035720278651: 1, 0.068471301319077735: 1, 0.068461219869319731: 1, 0.068457216714025548: 1, 0.06844571326175998: 1, 0.068444430306166287: 1, 0.068437267432030185: 1, 0.068427934753345437: 1, 0.068412341603751495: 1, 0.068408976281487677: 1, 0.068408855835260379: 1, 0.068407855265955608: 1, 0.06840648660454858: 1, 0.068403380912926665: 1, 0.06840255899938634: 1, 0.06839629479180033: 1, 0.068394066631805014: 1, 0.068390857656421833: 1, 0.068383247935401473: 1, 0.068365857112759776: 1, 0.068358751562364206: 1, 0.068355492836216766: 1, 0.068347043230798044: 1, 0.068338338045283317: 1, 0.068337416658765721: 1, 0.068327820719918012: 1, 0.06832677376790211: 1, 0.068322609552888644: 1, 0.068316548668436533: 1, 0.068313122803768819: 1, 0.068311940663774995: 1, 0.068309984596601314: 1, 0.068294422895829252: 1, 0.068290480324003575: 1, 0.068286032989199205: 1, 0.068282438587355859: 1, 0.068277736087958896: 1, 0.068267311918605189: 1, 0.068266825036075771: 1, 0.068262417845881829: 1, 0.068238287619975635: 1, 0.068237520739372184: 1, 0.068231214616052888: 1, 0.068229642923580747: 1, 0.068207521562368534: 1, 0.068203104116034433: 1, 0.068188164713512384: 1, 0.068186133100914079: 1, 0.068174775261741982: 1, 0.068167211750620169: 1, 0.068166293631571021: 1, 0.068160391588320948: 1, 0.068154342201513618: 1, 0.068126160305976458: 1, 0.068101824633734348: 1, 0.068088437871331176: 1, 0.068087168042993224: 1, 0.068085872809658693: 1, 0.068075516807808059: 1, 0.068072321503375: 1, 0.068071526637799182: 1, 0.068061518540260629: 1, 0.068035935491599031: 1, 0.068034697791777676: 1, 0.068031548560701385: 1, 0.06802023934705527: 1, 0.068008112623315284: 1, 0.068000690940350134: 1, 0.067978175551253239: 1, 0.067969674889858459: 1, 0.067959695079715374: 1, 0.067955730933813255: 1, 0.067949439605696327: 1, 0.067944659021997075: 1, 0.067922461843053131: 1, 0.067922346742704282: 1, 0.067905592908377069: 1, 0.067902786945263222: 1, 0.067899347718771028: 1, 0.067898633506820488: 1, 0.067893864032593162: 1, 0.067889860813455091: 1, 0.067885481553577723: 1, 0.067884563117126387: 1, 0.067881767213334665: 1, 0.067866244723288852: 1, 0.067848500480887863: 1, 0.067843610065645973: 1, 0.067842551447584193: 1, 0.067819846111645751: 1, 0.067813442482776751: 1, 0.067808458857609277: 1, 0.06780710319198506: 1, 0.067803821861854741: 1, 0.067786780439055533: 1, 0.067778814951777719: 1, 0.067777099924934123: 1, 0.067773722254449664: 1, 0.067767628729784077: 1, 0.067767508396053083: 1, 0.067760603717131357: 1, 0.067751727038265805: 1, 0.067741603845806367: 1, 0.067740728853506044: 1, 0.067738319795373647: 1, 0.067735918899478637: 1, 0.067733658048179657: 1, 0.067706129829584044: 1, 0.067705731927529267: 1, 0.067703759502951821: 1, 0.067694713507769219: 1, 0.067693434857396748: 1, 0.067680592840468984: 1, 0.067669945956041533: 1, 0.067666005532789328: 1, 0.067663936400465488: 1, 0.06765839222332666: 1, 0.067652347401089205: 1, 0.067647239808630244: 1, 0.067641119227530508: 1, 0.067635622668287862: 1, 0.06762901773809081: 1, 0.067610505287030304: 1, 0.067605737442528818: 1, 0.067604945081697565: 1, 0.067602845360331135: 1, 0.067584226010619058: 1, 0.067562574950100984: 1, 0.067540574517148108: 1, 0.067535406335345993: 1, 0.067532281159295757: 1, 0.067525186812651891: 1, 0.067517689248047949: 1, 0.067513890697269749: 1, 0.067506353875299394: 1, 0.067503415874749798: 1, 0.067488840002115968: 1, 0.067487932877779433: 1, 0.067484476400132207: 1, 0.06745821772246452: 1, 0.067442751564147793: 1, 0.067438080823471427: 1, 0.067435877372093708: 1, 0.067435169135940706: 1, 0.067434710977942736: 1, 0.067433333729199629: 1, 0.067417268138437195: 1, 0.067414209726929311: 1, 0.06740862122888204: 1, 0.067406954426734472: 1, 0.067399875649369459: 1, 0.067393306258052718: 1, 0.067388831164101964: 1, 0.067387427149100551: 1, 0.067373422527093232: 1, 0.06737331682138549: 1, 0.067358882228035322: 1, 0.067356011944023131: 1, 0.067354040395484233: 1, 0.067346591952625975: 1, 0.067337155900907775: 1, 0.067330297804419584: 1, 0.06732503347593484: 1, 0.067320548746501424: 1, 0.067316202061607849: 1, 0.06730683101119761: 1, 0.067306121463504731: 1, 0.067305962314913217: 1, 0.067305745021251875: 1, 0.067305653310242006: 1, 0.067298603336871474: 1, 0.067267418440932397: 1, 0.067257975564930003: 1, 0.067249393891319773: 1, 0.067249235503139604: 1, 0.067247551828075278: 1, 0.067240694215059418: 1, 0.067234850488190473: 1, 0.067231317023270787: 1, 0.067226003843280827: 1, 0.067217400693839996: 1, 0.067216872663957761: 1, 0.067210741032080537: 1, 0.06719388495049744: 1, 0.067183349174067458: 1, 0.0671719063820886: 1, 0.067161786454680253: 1, 0.067160444279571088: 1, 0.067158357400295188: 1, 0.067153801970162574: 1, 0.067153719817140009: 1, 0.067147431433398547: 1, 0.06714395891402597: 1, 0.067141103767784996: 1, 0.067138060832461585: 1, 0.067126487764540901: 1, 0.067121671130368793: 1, 0.067113066836198276: 1, 0.067102152467946527: 1, 0.067101479367735806: 1, 0.067100825911480949: 1, 0.067086068308653088: 1, 0.067083976809365092: 1, 0.067077313108628314: 1, 0.06707350309964856: 1, 0.067067481587223976: 1, 0.067067349354136635: 1, 0.067047594737797908: 1, 0.06703616299045069: 1, 0.067028187045565221: 1, 0.067000003648975834: 1, 0.066984228699795062: 1, 0.066976880645479644: 1, 0.066955650439328288: 1, 0.066950135619399567: 1, 0.066937900377339155: 1, 0.066934754339448246: 1, 0.066922346001987029: 1, 0.066910658194208716: 1, 0.066907346800908901: 1, 0.066900984401521646: 1, 0.066899312835669453: 1, 0.066886555867926772: 1, 0.06688164682479078: 1, 0.066880458927774722: 1, 0.06686844408762864: 1, 0.066865771631802379: 1, 0.066862953883120801: 1, 0.066853669805314223: 1, 0.066852663603748155: 1, 0.066851778272272414: 1, 0.066846870520566967: 1, 0.066828514914380438: 1, 0.066824375885358472: 1, 0.066816933231019685: 1, 0.066814618035431109: 1, 0.066804679691798929: 1, 0.066802013948386613: 1, 0.066797755960338615: 1, 0.066794201119801194: 1, 0.066794016340680218: 1, 0.066779262745200907: 1, 0.066774387487610665: 1, 0.066751438261344165: 1, 0.066742788992914165: 1, 0.066740258765823041: 1, 0.066734060877739726: 1, 0.06670907702085041: 1, 0.066705537147486282: 1, 0.066701323646803229: 1, 0.06670004079221506: 1, 0.066699184390407409: 1, 0.066681367349163842: 1, 0.066678380552192149: 1, 0.066676110689005919: 1, 0.066671044529983209: 1, 0.06665817751179022: 1, 0.066650788252797258: 1, 0.066647584530513365: 1, 0.066642900491351922: 1, 0.066637887783138255: 1, 0.066637847288613314: 1, 0.066630203027143092: 1, 0.066629301777640482: 1, 0.066625728827050701: 1, 0.066614352673910873: 1, 0.066598544598885756: 1, 0.066597073743662957: 1, 0.066585716227035602: 1, 0.06658462998028071: 1, 0.066578496451652092: 1, 0.066573537660965507: 1, 0.066569730774184571: 1, 0.066548698380389737: 1, 0.066546927322145039: 1, 0.066542996352602732: 1, 0.066530415056178613: 1, 0.066529434296998535: 1, 0.066514597638302489: 1, 0.066506019431133725: 1, 0.066498153033516638: 1, 0.06649393132239001: 1, 0.066486981086786481: 1, 0.066470809490347643: 1, 0.066466532534707218: 1, 0.066448357046915527: 1, 0.066434053915609914: 1, 0.06642935666952221: 1, 0.066422876666910574: 1, 0.066399451993097075: 1, 0.066391937709394125: 1, 0.066382057591266294: 1, 0.066377476775403801: 1, 0.066375276938391861: 1, 0.066374767186134428: 1, 0.066373529763398317: 1, 0.066372485841810477: 1, 0.066370974997256596: 1, 0.066369714733034865: 1, 0.06636164473380389: 1, 0.066357805156726068: 1, 0.066345304926586718: 1, 0.066339086829055316: 1, 0.066337489833380323: 1, 0.066315802185302627: 1, 0.066308880151062399: 1, 0.066305155068322977: 1, 0.066292396267681269: 1, 0.066291386321788465: 1, 0.066285789267353262: 1, 0.066280438394755198: 1, 0.066280188688108616: 1, 0.066280011944800085: 1, 0.066276499589720872: 1, 0.066266766778609418: 1, 0.066263972689128314: 1, 0.066260864216552987: 1, 0.06625880210006424: 1, 0.066234236932430759: 1, 0.066231249680722443: 1, 0.066229790710047809: 1, 0.066226346241887293: 1, 0.066218754461788598: 1, 0.066205155641228614: 1, 0.066185940497444778: 1, 0.066174788122152078: 1, 0.066170882200055653: 1, 0.0661579542003045: 1, 0.066155688592712258: 1, 0.066148085058286427: 1, 0.066145149347667354: 1, 0.066144257924411032: 1, 0.066140173455460333: 1, 0.066138107255079223: 1, 0.066126891786779773: 1, 0.066121123142466209: 1, 0.06611989827119058: 1, 0.06611819715231762: 1, 0.066111502104143349: 1, 0.066107567881249413: 1, 0.066104930051335331: 1, 0.066101281325031722: 1, 0.066092832145380531: 1, 0.066079561201644058: 1, 0.066066927267138448: 1, 0.066039254040525103: 1, 0.066020165546731124: 1, 0.066013797104968353: 1, 0.066013366485339453: 1, 0.066010494441428896: 1, 0.066006888356953272: 1, 0.065998892967772546: 1, 0.065996021204198285: 1, 0.065989062671840654: 1, 0.065976612028291054: 1, 0.065970292660798166: 1, 0.065962408488154517: 1, 0.065962362305461139: 1, 0.065962071122197194: 1, 0.065960600386879731: 1, 0.06596030411254479: 1, 0.065957924267236789: 1, 0.065957316640838051: 1, 0.065951906613625502: 1, 0.065950247798877593: 1, 0.065949268788530011: 1, 0.065947841356390841: 1, 0.065947173220386221: 1, 0.065945546138152414: 1, 0.065939706063788045: 1, 0.065938127954093539: 1, 0.065936643526314315: 1, 0.065934962619756191: 1, 0.065929061225879576: 1, 0.06592076976658709: 1, 0.065915162903205815: 1, 0.065908426780117352: 1, 0.065894697269418184: 1, 0.065872557942997775: 1, 0.06586484367652741: 1, 0.065855786834937244: 1, 0.065850240342321564: 1, 0.065849593160230036: 1, 0.065847095870028377: 1, 0.065837749439169049: 1, 0.065835940026891526: 1, 0.065834072348582406: 1, 0.065826765802013992: 1, 0.065820298510754757: 1, 0.065809803021974214: 1, 0.065787664175423491: 1, 0.065782747299719696: 1, 0.065770268055799053: 1, 0.065767559387231708: 1, 0.065761765536597863: 1, 0.0657593518454795: 1, 0.065758674059991196: 1, 0.065750059177402051: 1, 0.065747842995504818: 1, 0.065747778530368187: 1, 0.065742515937163543: 1, 0.0657418379185436: 1, 0.065727695852062645: 1, 0.06572760947795192: 1, 0.065718312428289849: 1, 0.065695673444992025: 1, 0.065682990134635938: 1, 0.065674354676493116: 1, 0.065670704825596837: 1, 0.065658458743134737: 1, 0.065615597971297693: 1, 0.065614970990524255: 1, 0.065605239739051358: 1, 0.065588092194484679: 1, 0.065574626825918275: 1, 0.065568568227872118: 1, 0.065549516285485623: 1, 0.065535238687535344: 1, 0.06553284399755907: 1, 0.065532370234441376: 1, 0.065520542509089882: 1, 0.065519628209352768: 1, 0.06551835670820351: 1, 0.065516324806369805: 1, 0.065511579655406868: 1, 0.065510994509906412: 1, 0.065507972228300612: 1, 0.06550474571175556: 1, 0.065499946774377482: 1, 0.065488670726879: 1, 0.065484691987244326: 1, 0.065476614399824704: 1, 0.065472863190201791: 1, 0.0654661892858866: 1, 0.065449826769209449: 1, 0.06542702960994233: 1, 0.06542490664338263: 1, 0.06542383555726064: 1, 0.06539822545605499: 1, 0.065377217894850084: 1, 0.065374459169886781: 1, 0.065370660889694579: 1, 0.065359429710938013: 1, 0.065351961189171859: 1, 0.065340124588260121: 1, 0.06533060871967529: 1, 0.065321864715855465: 1, 0.065313298645404055: 1, 0.065300446533544082: 1, 0.065298121666627851: 1, 0.065293763409257577: 1, 0.06529292328721871: 1, 0.065290270349821641: 1, 0.065280369867802418: 1, 0.065269006410926061: 1, 0.065255965421641818: 1, 0.065250759345811787: 1, 0.065249500555897219: 1, 0.06524675748726444: 1, 0.065244591592168749: 1, 0.065244355643414603: 1, 0.065233521717635273: 1, 0.065229323634029515: 1, 0.06522662685952163: 1, 0.065221479532483598: 1, 0.065183115001541531: 1, 0.065182209817642736: 1, 0.065170717922039559: 1, 0.065161662470399284: 1, 0.065160815405239922: 1, 0.065159484872455403: 1, 0.065151366522942011: 1, 0.065147619357496633: 1, 0.065145148582610363: 1, 0.065135243173177176: 1, 0.065128837263221842: 1, 0.065125084164451869: 1, 0.065124550717908833: 1, 0.065123640038767361: 1, 0.065106195743079395: 1, 0.065099480616488292: 1, 0.065088727151841372: 1, 0.065085515275772471: 1, 0.065083316316590242: 1, 0.065065294157971076: 1, 0.06505794733663596: 1, 0.065045900357247055: 1, 0.065027969950922457: 1, 0.065022304499837119: 1, 0.065018963705159583: 1, 0.065016216475481267: 1, 0.065011280378347289: 1, 0.065004953130832405: 1, 0.064999316822052775: 1, 0.064986104488676324: 1, 0.064982767894257831: 1, 0.06498266830068089: 1, 0.064981074116864351: 1, 0.064980474953517955: 1, 0.064957372190724449: 1, 0.064952950680566141: 1, 0.06495112165889437: 1, 0.064945800678519072: 1, 0.064944769249786025: 1, 0.06493623515430029: 1, 0.064927875069451871: 1, 0.064921258188695152: 1, 0.064920885086864333: 1, 0.064906656787414724: 1, 0.064903327960188328: 1, 0.064889206160066673: 1, 0.064860298428949165: 1, 0.064856798755948616: 1, 0.064850032384066322: 1, 0.064849091923583665: 1, 0.064848201592829433: 1, 0.064839228091786091: 1, 0.064832895096137474: 1, 0.064830660251209857: 1, 0.064821930222991098: 1, 0.064811204994184884: 1, 0.064811029611198695: 1, 0.064804440807295: 1, 0.064803340271799625: 1, 0.064792536802348782: 1, 0.064791045559297253: 1, 0.0647908385571766: 1, 0.06478690255647028: 1, 0.064749150410695094: 1, 0.064748337862770219: 1, 0.064748293180093272: 1, 0.064744262798761137: 1, 0.064743492298772937: 1, 0.064740876104998069: 1, 0.064732623866482264: 1, 0.064715559218786051: 1, 0.064704079193611902: 1, 0.064698425664117543: 1, 0.064697579317959567: 1, 0.064689495481071072: 1, 0.064677272299790395: 1, 0.06467579133540477: 1, 0.064664262547513771: 1, 0.064662290435899966: 1, 0.064659038374968711: 1, 0.064649528158737257: 1, 0.064632220220313327: 1, 0.064631188239795773: 1, 0.06462981069602225: 1, 0.064620785973315401: 1, 0.064620646835763296: 1, 0.064612296454446508: 1, 0.064609517287513976: 1, 0.06459750638004591: 1, 0.064587412845993966: 1, 0.064581073704829572: 1, 0.06456862750801412: 1, 0.0645632098404465: 1, 0.064561872715401258: 1, 0.06454159634294819: 1, 0.06454077403106688: 1, 0.064540492653305179: 1, 0.064538699705863095: 1, 0.064535476405498129: 1, 0.064534188058511063: 1, 0.064534151610422044: 1, 0.064530652316178355: 1, 0.064527282586917561: 1, 0.064524345730000016: 1, 0.064513191285435159: 1, 0.06449898220320964: 1, 0.064498691783623899: 1, 0.064495834534780999: 1, 0.064476304627902867: 1, 0.064466867673900918: 1, 0.064466784248847261: 1, 0.06446602050510386: 1, 0.064454813879170653: 1, 0.064450610661883248: 1, 0.064450224523499688: 1, 0.064449054420833041: 1, 0.064437088748885402: 1, 0.064429117026084573: 1, 0.064419344744864326: 1, 0.06441252514821931: 1, 0.064410075653298079: 1, 0.064405097453935842: 1, 0.064402579156692175: 1, 0.064390155967106802: 1, 0.064385478667751767: 1, 0.064380524210036552: 1, 0.064375208986621205: 1, 0.064373139170672791: 1, 0.0643672209088164: 1, 0.064367026398445631: 1, 0.064366584047459249: 1, 0.064365359689653512: 1, 0.064364718522582187: 1, 0.06435698847318326: 1, 0.064355052824062259: 1, 0.064352129804704103: 1, 0.064343973543647057: 1, 0.064332320757416239: 1, 0.064325559780818678: 1, 0.064315314681026151: 1, 0.064315105174435783: 1, 0.064314396042557564: 1, 0.064294070963963737: 1, 0.064292984498409839: 1, 0.064292971280389605: 1, 0.064291583349893322: 1, 0.064291186518084631: 1, 0.064280335575384276: 1, 0.064272942069359795: 1, 0.064269490981603061: 1, 0.064267335686363974: 1, 0.064263287641628919: 1, 0.064249650479374004: 1, 0.064241262014313613: 1, 0.064241183334113508: 1, 0.064230179047855065: 1, 0.064226101616902564: 1, 0.064215609616587691: 1, 0.064210553695393524: 1, 0.064206444218149805: 1, 0.06419226497888858: 1, 0.064172861810044293: 1, 0.064170255600576834: 1, 0.06416678023964259: 1, 0.064161672735130196: 1, 0.064161056419064832: 1, 0.064160650348092083: 1, 0.064160561968040583: 1, 0.06415613812790967: 1, 0.064148888666341178: 1, 0.064137459236454419: 1, 0.064134959821367743: 1, 0.064134058891496898: 1, 0.064131014831926333: 1, 0.064128266226666841: 1, 0.064124202050958728: 1, 0.064120155139610446: 1, 0.064118704888139588: 1, 0.064116390602366: 1, 0.064112946068042589: 1, 0.064111538459968614: 1, 0.064108758845610764: 1, 0.064108424824906945: 1, 0.064105811793061906: 1, 0.064104773459969455: 1, 0.064101678454608402: 1, 0.064085546063314652: 1, 0.064073083569451919: 1, 0.064064832187379087: 1, 0.064058006293159081: 1, 0.064054157935754155: 1, 0.064052934287570876: 1, 0.064049608887075282: 1, 0.064048396452222989: 1, 0.064036708997310399: 1, 0.064033786276820895: 1, 0.064026944734892705: 1, 0.064025844154823736: 1, 0.06402053477329997: 1, 0.064002068213183522: 1, 0.063987138553564332: 1, 0.063985877573070143: 1, 0.063983788111795392: 1, 0.063979632616474852: 1, 0.063972193350707654: 1, 0.063950627713970712: 1, 0.06393859775202218: 1, 0.063931766754464256: 1, 0.063926403302682247: 1, 0.063925331483271869: 1, 0.06391978707340279: 1, 0.063919054715598236: 1, 0.063916564396901798: 1, 0.063916235733389157: 1, 0.06390871548047021: 1, 0.063907999561399184: 1, 0.063905493830245422: 1, 0.063894422215705432: 1, 0.063882547787554686: 1, 0.063880597352937718: 1, 0.063880067628378029: 1, 0.063878880081171013: 1, 0.063872663704746008: 1, 0.063870087050548308: 1, 0.063858568207312921: 1, 0.06384624151230904: 1, 0.06383075027012583: 1, 0.063821023721736939: 1, 0.063819173822317415: 1, 0.063813490852664773: 1, 0.063799648467853062: 1, 0.06378840317217116: 1, 0.063786128330125036: 1, 0.063757788126019246: 1, 0.063757141698681588: 1, 0.063754947420044047: 1, 0.063754234451341679: 1, 0.063742693803838429: 1, 0.063724916226693948: 1, 0.063723995011077728: 1, 0.063723318751985683: 1, 0.06371785445408841: 1, 0.063717034131383465: 1, 0.063708237466602882: 1, 0.06370467018279112: 1, 0.063688480726106236: 1, 0.063684673168651854: 1, 0.063675434686109908: 1, 0.063654944804946795: 1, 0.063641766227469337: 1, 0.063632359311958639: 1, 0.06363107730035833: 1, 0.06362946343618972: 1, 0.063624839954537354: 1, 0.063623286103838689: 1, 0.063608791578096124: 1, 0.063608740281897502: 1, 0.063608490391719535: 1, 0.063602257421370628: 1, 0.063596586060453722: 1, 0.063596158315367468: 1, 0.063585705887149208: 1, 0.063585659814584125: 1, 0.063584558950296174: 1, 0.063583492433078384: 1, 0.063582333399883756: 1, 0.063574760453954549: 1, 0.063570253682900257: 1, 0.063549482757466469: 1, 0.063545252285114928: 1, 0.063540263694703905: 1, 0.063537620347426466: 1, 0.063535927786239926: 1, 0.06352109501158594: 1, 0.063515497402461027: 1, 0.063513115747501556: 1, 0.063510484177997206: 1, 0.063499558454782071: 1, 0.063498477489460164: 1, 0.063498068633884866: 1, 0.063477944973811984: 1, 0.063472806497538503: 1, 0.063464218610865569: 1, 0.063462299322751867: 1, 0.063459960663368356: 1, 0.063448559482469191: 1, 0.063418763495037139: 1, 0.063406912165005477: 1, 0.063405417520956783: 1, 0.063397580584661578: 1, 0.063396052630700445: 1, 0.063385241834108735: 1, 0.063362302716099272: 1, 0.063360807151068732: 1, 0.063360709732395618: 1, 0.06336028021089754: 1, 0.063358208710860689: 1, 0.063348829048609223: 1, 0.063342724715639356: 1, 0.063339620199901414: 1, 0.063323835518605154: 1, 0.06332205789159065: 1, 0.063319227163618666: 1, 0.063303709538521685: 1, 0.063296842033406395: 1, 0.063289958624179368: 1, 0.063283018324333029: 1, 0.063275885359172085: 1, 0.063271752227028077: 1, 0.063268649057472218: 1, 0.063267247405599122: 1, 0.063234762967000133: 1, 0.063215918401141713: 1, 0.063214807560728323: 1, 0.063214780147629893: 1, 0.063206096417728092: 1, 0.063203971251518942: 1, 0.063179363521893017: 1, 0.063169277208391356: 1, 0.063166590441487161: 1, 0.063162615863782162: 1, 0.063156968805767932: 1, 0.063154146837103589: 1, 0.063144341204502408: 1, 0.063142757044982969: 1, 0.063140790767956603: 1, 0.06313921822341137: 1, 0.063130491109742254: 1, 0.063121081648963656: 1, 0.063116104463187508: 1, 0.063113680086063426: 1, 0.063110956462142695: 1, 0.063095725258516214: 1, 0.063084342119616554: 1, 0.06308138316182825: 1, 0.063081012191229802: 1, 0.063079589866442631: 1, 0.063058678415149436: 1, 0.063055663852670085: 1, 0.063052792527100693: 1, 0.063046085721684145: 1, 0.063044529690888473: 1, 0.063044494496812903: 1, 0.063044488723663306: 1, 0.06304252871216795: 1, 0.063029353660753393: 1, 0.063027415745237292: 1, 0.063026412657030018: 1, 0.063024346311856133: 1, 0.063023449325383021: 1, 0.063023194206564256: 1, 0.063021250768070053: 1, 0.063021179397438634: 1, 0.063018653593991059: 1, 0.063016958023746808: 1, 0.063009762585171394: 1, 0.062987592585059177: 1, 0.062984196124870884: 1, 0.062968327018563489: 1, 0.062956312322532543: 1, 0.062940470130263659: 1, 0.062937261902721919: 1, 0.062917589640464094: 1, 0.062913543506095876: 1, 0.062912134188658958: 1, 0.062900457038920679: 1, 0.062893582253329763: 1, 0.062885160146071817: 1, 0.062880765597920316: 1, 0.062870442194579393: 1, 0.062861339506321834: 1, 0.062855471789628387: 1, 0.062849653573400138: 1, 0.062822863804074536: 1, 0.06281641926175191: 1, 0.062812881539274779: 1, 0.062803364394967948: 1, 0.06280121169419306: 1, 0.06280064435764568: 1, 0.062798849757276759: 1, 0.062795972307897172: 1, 0.062792224269837729: 1, 0.062786609251710632: 1, 0.06278457488664653: 1, 0.062777422710072014: 1, 0.062774315339330714: 1, 0.062771719279414204: 1, 0.062770476727554134: 1, 0.062766718591193857: 1, 0.062760984006308418: 1, 0.06275906479221148: 1, 0.06274797835918397: 1, 0.062746799678791987: 1, 0.062740377267441083: 1, 0.062739312028241748: 1, 0.062735125771436834: 1, 0.062734081713701373: 1, 0.062722150724883505: 1, 0.062715176335070164: 1, 0.062714401652496699: 1, 0.062699824783538374: 1, 0.062699470183238001: 1, 0.062697539560987225: 1, 0.062693078415712311: 1, 0.062689836078771391: 1, 0.062678438119200736: 1, 0.062673162430312609: 1, 0.062668511209248989: 1, 0.062660736497719791: 1, 0.06265959032176327: 1, 0.062659195839533513: 1, 0.062654681260336437: 1, 0.062642850750572146: 1, 0.06264075581984431: 1, 0.062633338789155113: 1, 0.062629986455109948: 1, 0.062628368178948624: 1, 0.062618713206343032: 1, 0.062616714291036227: 1, 0.062615269293365361: 1, 0.06261104081891751: 1, 0.062602567113014831: 1, 0.06260132683414571: 1, 0.062599867294301254: 1, 0.06259934333237753: 1, 0.062595110666821649: 1, 0.062590023378081797: 1, 0.062585917259638649: 1, 0.062584908711635134: 1, 0.062580019829416675: 1, 0.06257935280057586: 1, 0.062574288373583892: 1, 0.062572438302561303: 1, 0.062557153133038432: 1, 0.062541664066017563: 1, 0.062529761622240693: 1, 0.062527334840056403: 1, 0.062524798077243288: 1, 0.062524476683763777: 1, 0.062515983853737592: 1, 0.062514631753372213: 1, 0.062512652048528849: 1, 0.06251180914907746: 1, 0.062508240923758812: 1, 0.062507160898685535: 1, 0.06250069608433502: 1, 0.062496675398857185: 1, 0.062488030920423578: 1, 0.062481690304721248: 1, 0.062476594881585364: 1, 0.062469579419926834: 1, 0.062468184428193241: 1, 0.062464072056831736: 1, 0.062458373908399555: 1, 0.062447054059926191: 1, 0.06243998506100279: 1, 0.06243910863099101: 1, 0.062434528569318692: 1, 0.062417589678604932: 1, 0.062415092916667317: 1, 0.062414438131390387: 1, 0.06240466940957401: 1, 0.062401839577545123: 1, 0.062394317933234966: 1, 0.062390520445131215: 1, 0.062375339380408124: 1, 0.062373417717045521: 1, 0.062362940205443265: 1, 0.062361831058053312: 1, 0.062355486087222987: 1, 0.062352643438708624: 1, 0.062352063108186299: 1, 0.062348948051806345: 1, 0.062344080659587145: 1, 0.062339665278131465: 1, 0.062331064598853313: 1, 0.062329566817539324: 1, 0.062327061380458799: 1, 0.062320249306957738: 1, 0.062318663104007854: 1, 0.062313572957046752: 1, 0.062313187282843498: 1, 0.062299676236104364: 1, 0.062283722033277013: 1, 0.062282443208873384: 1, 0.062279515476204708: 1, 0.062271370990216457: 1, 0.062264395236927672: 1, 0.062264180854949745: 1, 0.062254179712228401: 1, 0.062253651033113561: 1, 0.062246539578122193: 1, 0.062245911475996986: 1, 0.062240697831733298: 1, 0.062235965086737392: 1, 0.062234930226091445: 1, 0.062232849288544674: 1, 0.062227882392517302: 1, 0.062213958341574546: 1, 0.062208312527733886: 1, 0.062206020249060016: 1, 0.062193126046079614: 1, 0.062177266344306356: 1, 0.062161957358831108: 1, 0.062155393327015508: 1, 0.062130956097791019: 1, 0.062121225782353781: 1, 0.062113021180063802: 1, 0.062110375166009715: 1, 0.062106679093306846: 1, 0.062105685920108546: 1, 0.06209700005542021: 1, 0.062090507837860867: 1, 0.062089199355223668: 1, 0.062087722627923329: 1, 0.062076035694146242: 1, 0.062069324339631408: 1, 0.062069025327232352: 1, 0.062059917975659989: 1, 0.062058035661657067: 1, 0.062047208581821896: 1, 0.062046977062629696: 1, 0.062038783036267912: 1, 0.062026798533988278: 1, 0.062022725536744705: 1, 0.0620183040799972: 1, 0.062007998020875074: 1, 0.062003770648942615: 1, 0.062002113781361265: 1, 0.061991304575909005: 1, 0.061990006552478036: 1, 0.061983865431205265: 1, 0.061968220933699261: 1, 0.061964462698007795: 1, 0.061956309846762932: 1, 0.061952325319583383: 1, 0.061950025747819659: 1, 0.061943883169769315: 1, 0.061937164818648222: 1, 0.061930931755098985: 1, 0.061929654075405328: 1, 0.06192717016813401: 1, 0.061926596610273638: 1, 0.061922174930176904: 1, 0.061920651827401446: 1, 0.061918390637143689: 1, 0.061905343210711443: 1, 0.061893867438019091: 1, 0.061893421413594038: 1, 0.061890503793075279: 1, 0.061880314202021322: 1, 0.061875424980948182: 1, 0.061869723986301001: 1, 0.061855485606005643: 1, 0.061852416722140952: 1, 0.061852202320623245: 1, 0.061844318980940644: 1, 0.061842237776639213: 1, 0.061841651965262895: 1, 0.061839800934644959: 1, 0.06183842812362661: 1, 0.061835703120524228: 1, 0.061834900053967488: 1, 0.061831648417777378: 1, 0.061820509026119533: 1, 0.061816688906412086: 1, 0.061812930370944291: 1, 0.061809216119338664: 1, 0.061809195980542062: 1, 0.061808354724865518: 1, 0.061806472217059566: 1, 0.061806445772385227: 1, 0.061803077146693516: 1, 0.061802925318257602: 1, 0.061796776099599611: 1, 0.061789847286940883: 1, 0.0617707662724266: 1, 0.06175820277897557: 1, 0.061751866769706752: 1, 0.06175175026563709: 1, 0.061726143215926871: 1, 0.061719774348262327: 1, 0.061714108775283237: 1, 0.061701886687950902: 1, 0.061694913653919464: 1, 0.061690951252848528: 1, 0.061686224310741194: 1, 0.061680310163684686: 1, 0.061678215754345643: 1, 0.061669003974400088: 1, 0.061649937964609672: 1, 0.06163956291256889: 1, 0.061639313590027257: 1, 0.061634039564519683: 1, 0.061623057860498029: 1, 0.061617910250146915: 1, 0.06161788186720378: 1, 0.061613674700241941: 1, 0.061608546187911915: 1, 0.061568937408217561: 1, 0.061567057722298396: 1, 0.061565795032208673: 1, 0.06155980490544985: 1, 0.061555566797014336: 1, 0.061554793636694111: 1, 0.06154820463518728: 1, 0.06152089158588403: 1, 0.061520213213155525: 1, 0.061518939184756156: 1, 0.061518058114200982: 1, 0.061508918793742005: 1, 0.061504013786216394: 1, 0.061499960356855919: 1, 0.061495722904211847: 1, 0.061493809763060764: 1, 0.061482223145470707: 1, 0.061473212437419746: 1, 0.061464514762203069: 1, 0.061462969387938354: 1, 0.061461345474612745: 1, 0.061460420510426196: 1, 0.061457881673645687: 1, 0.06144569623049171: 1, 0.061444842885920732: 1, 0.061442538432946545: 1, 0.061441322675635339: 1, 0.061437738328839073: 1, 0.061437633898261686: 1, 0.061432017766907883: 1, 0.061422414413455542: 1, 0.061421580420921093: 1, 0.061413718427695101: 1, 0.06141289121224211: 1, 0.061411970803028647: 1, 0.061409881103397873: 1, 0.061402170171757517: 1, 0.061398622732766098: 1, 0.061386718432865986: 1, 0.061375310304082456: 1, 0.061371557221389768: 1, 0.06137115852909876: 1, 0.061350992501463524: 1, 0.061350451806209072: 1, 0.06134294168934136: 1, 0.061335499638931729: 1, 0.061329328044397446: 1, 0.061322827090423748: 1, 0.061305584785795487: 1, 0.06129745450357782: 1, 0.061286682529455953: 1, 0.061277387964703493: 1, 0.0612648872454577: 1, 0.061263961199984153: 1, 0.061259916344514637: 1, 0.061259160054555242: 1, 0.061257490653042479: 1, 0.06125714838642167: 1, 0.061253793896042845: 1, 0.061234373933246704: 1, 0.061231812847339681: 1, 0.061221822440004833: 1, 0.061212820360477392: 1, 0.061201270589346643: 1, 0.061198567496298768: 1, 0.061197953441548353: 1, 0.061189347987345301: 1, 0.061188337311344272: 1, 0.061180784731188931: 1, 0.061169842794180251: 1, 0.061160494848137875: 1, 0.061157153559114524: 1, 0.06114957226624148: 1, 0.061138900944438211: 1, 0.061136545786102878: 1, 0.061135061579166636: 1, 0.06113257660183162: 1, 0.061118860120110176: 1, 0.061114560602130261: 1, 0.061110188698536988: 1, 0.061071991655662614: 1, 0.061062655358543619: 1, 0.061061006666947262: 1, 0.061059202565083959: 1, 0.061056191762580932: 1, 0.061053708389232263: 1, 0.061040776090539539: 1, 0.061039963168332788: 1, 0.061039546249189738: 1, 0.061037768196725885: 1, 0.061032961472095054: 1, 0.061031781130003432: 1, 0.061022658618691918: 1, 0.061012859516078842: 1, 0.060992774217482469: 1, 0.060992490901580002: 1, 0.060985315574762514: 1, 0.060978277583834742: 1, 0.060964860421024433: 1, 0.060962866913893597: 1, 0.060958148397235665: 1, 0.060957799418834099: 1, 0.060953351245964217: 1, 0.060942452545466298: 1, 0.060940497604273253: 1, 0.06093754248518047: 1, 0.060935835782072838: 1, 0.060917336406135912: 1, 0.060916856694328649: 1, 0.060905704670763491: 1, 0.060902015917553294: 1, 0.06089462670786179: 1, 0.060885333049809566: 1, 0.060884988322058041: 1, 0.060881587975537312: 1, 0.060873675824416322: 1, 0.060870012987007088: 1, 0.060855082033110894: 1, 0.06085266118305753: 1, 0.060839804162087507: 1, 0.060837278348561084: 1, 0.060826787075033882: 1, 0.060824380948083179: 1, 0.060819988779628922: 1, 0.060805838006055539: 1, 0.060804873374002866: 1, 0.060804242014852045: 1, 0.060800033764975885: 1, 0.060798850767389112: 1, 0.060757385232013808: 1, 0.060753107281311766: 1, 0.06075013748019991: 1, 0.060744893113823847: 1, 0.060740563616841242: 1, 0.060738173998824488: 1, 0.060733385451537052: 1, 0.06070997812799369: 1, 0.060707869847740757: 1, 0.06070722161804272: 1, 0.060706462249750182: 1, 0.060694754907239953: 1, 0.060694182710237327: 1, 0.060691752026177478: 1, 0.06069111043674065: 1, 0.060686524998266697: 1, 0.060682107778957647: 1, 0.060677485740938265: 1, 0.060671902427458041: 1, 0.060655915681969964: 1, 0.060634002014337572: 1, 0.060617741850480168: 1, 0.060615160092655627: 1, 0.060601868784069111: 1, 0.060598456656749969: 1, 0.060594513061887817: 1, 0.060575525067525102: 1, 0.060567499710999569: 1, 0.060564863669047626: 1, 0.060563430303679104: 1, 0.060548272650936083: 1, 0.060543432412933668: 1, 0.060532667715563343: 1, 0.060520764912430587: 1, 0.060490786421680334: 1, 0.060484314466893285: 1, 0.060478544543609639: 1, 0.060472988104408563: 1, 0.060469501841639205: 1, 0.060467621805574891: 1, 0.06046194729346549: 1, 0.060461477874528227: 1, 0.060452581478969689: 1, 0.060445096628172795: 1, 0.060427942153318689: 1, 0.060422692937181166: 1, 0.060416738116299148: 1, 0.060412218728082306: 1, 0.060392641633460711: 1, 0.060377726328635299: 1, 0.060365589349519043: 1, 0.060360083936743254: 1, 0.060359811944145109: 1, 0.060327721373360906: 1, 0.06032399778244784: 1, 0.060320120372375483: 1, 0.060312103355666641: 1, 0.06031009267164894: 1, 0.060306539669294931: 1, 0.060306348763096276: 1, 0.06030142869295281: 1, 0.060295274771998864: 1, 0.060289545231204132: 1, 0.060285741235310969: 1, 0.060279052487825183: 1, 0.060238747917563507: 1, 0.060236224151431213: 1, 0.060211596296537898: 1, 0.060208372069497702: 1, 0.060195129260995961: 1, 0.060194099661553931: 1, 0.060183524745360942: 1, 0.060181616398101205: 1, 0.06017731406764186: 1, 0.060175039491787555: 1, 0.060174041492981348: 1, 0.060172745213579036: 1, 0.060171197322292112: 1, 0.060158633692404533: 1, 0.060151650449856729: 1, 0.060129590266139607: 1, 0.060118308488414929: 1, 0.060105432495870061: 1, 0.060099367328898631: 1, 0.060083128999036464: 1, 0.060072856567863819: 1, 0.060071065369828813: 1, 0.060069738471900884: 1, 0.060064411903783393: 1, 0.060026271111310606: 1, 0.060022257701607143: 1, 0.060016014694104683: 1, 0.060004280604378596: 1, 0.059999867292817935: 1, 0.059993749068568525: 1, 0.059993368059203911: 1, 0.059985194577603013: 1, 0.059982911699966203: 1, 0.059978538259287326: 1, 0.059977741787730778: 1, 0.059965471947370244: 1, 0.05995179600230123: 1, 0.059929411150206113: 1, 0.059919242517148447: 1, 0.05991083354657048: 1, 0.059907702734549415: 1, 0.059893167282115731: 1, 0.059886961317874583: 1, 0.059882528196279809: 1, 0.059873837692299835: 1, 0.059868425337618686: 1, 0.059866212718575181: 1, 0.059852620653068712: 1, 0.059842500296192994: 1, 0.05984008865498041: 1, 0.059834290949569879: 1, 0.059826922129974959: 1, 0.059823414692821229: 1, 0.059820466790482571: 1, 0.059818665953166754: 1, 0.059811155086708291: 1, 0.059803690610062736: 1, 0.059799025613600953: 1, 0.059793444872153406: 1, 0.059792136205005959: 1, 0.059788315031015421: 1, 0.0597653822362047: 1, 0.059762508461176651: 1, 0.059760887463713101: 1, 0.059756844291343508: 1, 0.059744873639252606: 1, 0.059742358428270297: 1, 0.059736720585002324: 1, 0.059730117224071448: 1, 0.059729881139183386: 1, 0.059727099996161777: 1, 0.059719382523040876: 1, 0.05971598716986326: 1, 0.059709373780884846: 1, 0.059700673354939726: 1, 0.05969236398421561: 1, 0.059686588701468077: 1, 0.059681587514683318: 1, 0.059675098334261559: 1, 0.059675061502623625: 1, 0.059666798385438855: 1, 0.059665919612897793: 1, 0.059663096335046156: 1, 0.059660310949377078: 1, 0.05964330941016243: 1, 0.059639039595966309: 1, 0.059638783017262012: 1, 0.059632639555797784: 1, 0.059623053221431403: 1, 0.059618736039065132: 1, 0.059615133134871857: 1, 0.059607596645070746: 1, 0.059602279629943015: 1, 0.059600984806221627: 1, 0.059590811963644116: 1, 0.059579186923383293: 1, 0.059568153562861922: 1, 0.059567868493932981: 1, 0.059560290128381196: 1, 0.059560252144004483: 1, 0.059559301998350737: 1, 0.059548880493947548: 1, 0.059546981304459776: 1, 0.059545783047856689: 1, 0.059536166237290092: 1, 0.059535936289058053: 1, 0.059533482030039456: 1, 0.059520163047164884: 1, 0.059495453011995464: 1, 0.059492212578388319: 1, 0.059489109357657166: 1, 0.059488383192121096: 1, 0.059485384851967429: 1, 0.059484682075632817: 1, 0.059470522991214726: 1, 0.059467538230857674: 1, 0.059463731303555596: 1, 0.059462003308804683: 1, 0.059446135698528843: 1, 0.059444498827665705: 1, 0.059443268215171763: 1, 0.059431894524302732: 1, 0.059419103364799997: 1, 0.059412767425223445: 1, 0.059406979355507282: 1, 0.059403015046206126: 1, 0.059399307708841914: 1, 0.059392886406994701: 1, 0.059382777496543623: 1, 0.059375792527640955: 1, 0.059355846944514484: 1, 0.059353374687565838: 1, 0.059343438899780721: 1, 0.059330444205720825: 1, 0.059325545213548672: 1, 0.059322807137465079: 1, 0.059315458192943461: 1, 0.059311283856759836: 1, 0.059306712358383022: 1, 0.059299573151701271: 1, 0.059295587505660129: 1, 0.059290447981827955: 1, 0.059289843228447846: 1, 0.059274500252677741: 1, 0.059273758223928386: 1, 0.059268978246291647: 1, 0.059257721289190331: 1, 0.059252356542354695: 1, 0.059245931486009776: 1, 0.059241395558311663: 1, 0.059233272837840564: 1, 0.059225891009305642: 1, 0.059220185235998979: 1, 0.059202059711297689: 1, 0.059201801951872177: 1, 0.059200707343269418: 1, 0.059196862413336153: 1, 0.05919494268155967: 1, 0.059188610603724628: 1, 0.059182977700465864: 1, 0.059179777891860047: 1, 0.059165356974126775: 1, 0.059155063453781707: 1, 0.059152857270332634: 1, 0.0591524822395832: 1, 0.059150226589874386: 1, 0.059143192178247338: 1, 0.059139276228944167: 1, 0.059138233692440353: 1, 0.059134246874988403: 1, 0.059126347745520738: 1, 0.059116265465222556: 1, 0.059113900377369639: 1, 0.059110607887481847: 1, 0.05911003485684279: 1, 0.059103538138787728: 1, 0.059072020345223214: 1, 0.059071670799150544: 1, 0.059070416794181652: 1, 0.059063625536274617: 1, 0.059061749949796377: 1, 0.059060686367169393: 1, 0.059055353653458383: 1, 0.059052782552554299: 1, 0.059050144502608017: 1, 0.059047294888520181: 1, 0.059046806047503939: 1, 0.059042749108912482: 1, 0.059035160578763082: 1, 0.059018177300388067: 1, 0.058997548578796723: 1, 0.058992450000612602: 1, 0.058983768852164102: 1, 0.058982179747519653: 1, 0.058970819345374771: 1, 0.058967076794956108: 1, 0.058959607907359712: 1, 0.058957956654604314: 1, 0.058940452070174648: 1, 0.058928494442097024: 1, 0.058924598562463112: 1, 0.058922394829869752: 1, 0.058912740837658392: 1, 0.058909417192818066: 1, 0.058905618812916088: 1, 0.058905060355617739: 1, 0.058886428343505853: 1, 0.058875656576610945: 1, 0.058873720030468125: 1, 0.058869099097219983: 1, 0.058854393413219214: 1, 0.058853632801092348: 1, 0.058852689135210134: 1, 0.058844957543447395: 1, 0.058832938987856763: 1, 0.058826897006537988: 1, 0.05881724345943784: 1, 0.058816630915025384: 1, 0.058814801231262009: 1, 0.058796180565952073: 1, 0.058794234325445269: 1, 0.058794060702357612: 1, 0.058792605408750781: 1, 0.058792482794798012: 1, 0.058787329717015599: 1, 0.05878562682758267: 1, 0.058783745936681557: 1, 0.058783589344061513: 1, 0.058781926741029326: 1, 0.058764555805097783: 1, 0.05876447230988957: 1, 0.058763866268504453: 1, 0.058763383793271881: 1, 0.058754820286566332: 1, 0.058751920351047676: 1, 0.058745524419878431: 1, 0.058744188779050868: 1, 0.058737255989884746: 1, 0.05873341770944969: 1, 0.058726426077642883: 1, 0.058725272371497661: 1, 0.0587215726305442: 1, 0.058719275787345662: 1, 0.058716940702078349: 1, 0.058713535603723638: 1, 0.058713469172911988: 1, 0.058702895690919958: 1, 0.058696537750097887: 1, 0.058684911208979777: 1, 0.058684075564097327: 1, 0.05868334193753294: 1, 0.058682873739300777: 1, 0.058674925505212021: 1, 0.058669650869015759: 1, 0.058665256781634117: 1, 0.058663912584873232: 1, 0.05866053023722291: 1, 0.058657587944626777: 1, 0.058643789067809315: 1, 0.058643144071713865: 1, 0.058640141508169832: 1, 0.058633016625109752: 1, 0.058612043413537145: 1, 0.058607764750315129: 1, 0.058598393468503762: 1, 0.058593091633998874: 1, 0.058580175482427027: 1, 0.058571620709925817: 1, 0.058569905732372127: 1, 0.058545968337026626: 1, 0.0585407423199404: 1, 0.058540235269145445: 1, 0.05853268069796682: 1, 0.058525229131570274: 1, 0.058519084602350141: 1, 0.058518752377000091: 1, 0.05851632191007531: 1, 0.058513959774742441: 1, 0.058511814462490985: 1, 0.058502093745673861: 1, 0.058495415923916418: 1, 0.058492908621227913: 1, 0.058482188604492003: 1, 0.058474337667070213: 1, 0.058469534520884055: 1, 0.058466933674423988: 1, 0.058439201986506588: 1, 0.058438236108832191: 1, 0.058436194450908301: 1, 0.058427336066476189: 1, 0.058425269763497566: 1, 0.058414573912895403: 1, 0.058411562821709104: 1, 0.05841043035193022: 1, 0.058395872887634752: 1, 0.058389894572893383: 1, 0.058388364479119506: 1, 0.058379098271257174: 1, 0.0583727261468934: 1, 0.058365670461442892: 1, 0.058356252493697816: 1, 0.058349239064988359: 1, 0.058335740252397364: 1, 0.058333487604443894: 1, 0.058329989687097655: 1, 0.058326859115852302: 1, 0.058300896214862015: 1, 0.058292689515239977: 1, 0.05828853866303188: 1, 0.05827887626562589: 1, 0.058234934283603428: 1, 0.058234126815634925: 1, 0.058233646099034746: 1, 0.058210885623422193: 1, 0.058201318031421576: 1, 0.058197360186745511: 1, 0.058196117993035722: 1, 0.058188345903760458: 1, 0.058180130260634372: 1, 0.058178012601152858: 1, 0.058170614314561317: 1, 0.058163057695621287: 1, 0.058157788825938327: 1, 0.058156188160427863: 1, 0.058135581689959456: 1, 0.058134388781419383: 1, 0.058128717944128681: 1, 0.058127123918798235: 1, 0.058101930720758782: 1, 0.058098356144258803: 1, 0.05809156179791361: 1, 0.058090654805732042: 1, 0.058088132567499479: 1, 0.058085063799584641: 1, 0.058072861674199602: 1, 0.058070114373563457: 1, 0.058067549488854397: 1, 0.058066243357648782: 1, 0.058063430374393897: 1, 0.058058952890095647: 1, 0.058053012346331707: 1, 0.058042282983155266: 1, 0.058038433464529311: 1, 0.058032077813373231: 1, 0.058026112008735434: 1, 0.058024973374578431: 1, 0.058024124401987842: 1, 0.058023163752952481: 1, 0.058019596169403095: 1, 0.05799204400465189: 1, 0.057983857738940429: 1, 0.057983010476357615: 1, 0.057979646319143624: 1, 0.057977897126179262: 1, 0.057977156391999282: 1, 0.057967548608780603: 1, 0.057965214804764791: 1, 0.057952940745844082: 1, 0.057949010365847264: 1, 0.057946467134251944: 1, 0.057943213742444051: 1, 0.057932964884278085: 1, 0.057930815408105539: 1, 0.057930770413292101: 1, 0.057928012106038679: 1, 0.057920383804464473: 1, 0.057920250335362196: 1, 0.05791557911052269: 1, 0.057912998408996642: 1, 0.057910014207618446: 1, 0.057900363100843115: 1, 0.05789932864589932: 1, 0.057886374295603393: 1, 0.057882291950425942: 1, 0.057882003610369985: 1, 0.057866895135453719: 1, 0.057862353187666228: 1, 0.057856050179680894: 1, 0.057853398422135466: 1, 0.057853288955695366: 1, 0.057828606100464211: 1, 0.057827355592373224: 1, 0.057822013099547993: 1, 0.057810015502811216: 1, 0.057799115422326242: 1, 0.057795874805701399: 1, 0.057795795097966021: 1, 0.057786893291568275: 1, 0.057773309505531528: 1, 0.057763168693102107: 1, 0.057756044566074985: 1, 0.057750841022775244: 1, 0.057733401741600417: 1, 0.057709608451471585: 1, 0.057706106969405487: 1, 0.05769916132851164: 1, 0.057679003921901825: 1, 0.057675211375015897: 1, 0.057673624596293535: 1, 0.057673480089356244: 1, 0.057667793868164001: 1, 0.057667176201811526: 1, 0.057662801484618886: 1, 0.057662075783539504: 1, 0.057646658214068759: 1, 0.057643092946220983: 1, 0.057624500939646606: 1, 0.057623853055888054: 1, 0.057617870414756273: 1, 0.057616376980331452: 1, 0.057603863830432062: 1, 0.057599158204994914: 1, 0.057596064633545378: 1, 0.057593274115456547: 1, 0.057585139522962667: 1, 0.057581444570470472: 1, 0.057578208502508707: 1, 0.057570806987325494: 1, 0.057566007882239006: 1, 0.057565872227088873: 1, 0.057562280010142908: 1, 0.057559427222708154: 1, 0.057543908772996415: 1, 0.057538615844870716: 1, 0.057532311883669515: 1, 0.05752958156297535: 1, 0.05752943698382619: 1, 0.057525532132720748: 1, 0.057517986994868327: 1, 0.057511443558919469: 1, 0.057503301563689047: 1, 0.057477548077216903: 1, 0.057474287478588938: 1, 0.057469861827373674: 1, 0.057467225851413783: 1, 0.057458535101913864: 1, 0.057457275530730059: 1, 0.05745040600086504: 1, 0.05744800171561508: 1, 0.057440589247243407: 1, 0.057433434811840892: 1, 0.057430844520077393: 1, 0.057425765550646234: 1, 0.057423853184179752: 1, 0.057410817361904828: 1, 0.057392855351309183: 1, 0.057391933072863416: 1, 0.057387277231730427: 1, 0.057377491040050584: 1, 0.057377238224976292: 1, 0.057375851207138645: 1, 0.057374742758637749: 1, 0.057373694767047276: 1, 0.05737136336164074: 1, 0.05736644837286782: 1, 0.057354592471994752: 1, 0.057338238142117248: 1, 0.057328137435022006: 1, 0.057328133902652026: 1, 0.05732753462508005: 1, 0.057325324030668742: 1, 0.057322449249379459: 1, 0.057315485871333005: 1, 0.057313774336295281: 1, 0.057313011931778665: 1, 0.057308920354693052: 1, 0.057307023399452428: 1, 0.057300844988498814: 1, 0.057282677038925429: 1, 0.057278918233348484: 1, 0.057275321417381696: 1, 0.057274324734469736: 1, 0.057261251655167759: 1, 0.057259836930739584: 1, 0.057256535139258526: 1, 0.057255460884317724: 1, 0.057251375563531708: 1, 0.05724528486878934: 1, 0.057233587312806651: 1, 0.057230713993547219: 1, 0.057223311591392149: 1, 0.057213690205949533: 1, 0.057212294336226981: 1, 0.057210830383616448: 1, 0.057209993823831067: 1, 0.057208687873704346: 1, 0.057207707704319787: 1, 0.057206937160946568: 1, 0.05720413762615955: 1, 0.057204045921058162: 1, 0.057202016574903293: 1, 0.057198570980094218: 1, 0.057187657394745871: 1, 0.057184745631387278: 1, 0.057182291992583824: 1, 0.057175543452546988: 1, 0.057139403483299732: 1, 0.057133178771374804: 1, 0.057124494206513013: 1, 0.057123903096712871: 1, 0.057123684168662425: 1, 0.057119939620039861: 1, 0.057108246735911347: 1, 0.057107344936109167: 1, 0.057105032289683784: 1, 0.057103209033284009: 1, 0.057100542584596653: 1, 0.057100254726907405: 1, 0.057091184727867228: 1, 0.057090545184603866: 1, 0.057083416183972724: 1, 0.057061167077956367: 1, 0.057053620189459892: 1, 0.057048102793361158: 1, 0.057047666133035101: 1, 0.057034033449842418: 1, 0.057029561301618091: 1, 0.057021283613164421: 1, 0.057018494512012019: 1, 0.057014137231855437: 1, 0.057010064675939845: 1, 0.057005735058259038: 1, 0.056989751027941876: 1, 0.056987414978030844: 1, 0.056972280864147878: 1, 0.056954053056907296: 1, 0.056952477074223504: 1, 0.056949684234488686: 1, 0.056941714762569345: 1, 0.056935524077317994: 1, 0.056931674753010711: 1, 0.056921432814356125: 1, 0.056921278972570141: 1, 0.056914795828248058: 1, 0.056909501493108333: 1, 0.056901340614380944: 1, 0.056896983235374246: 1, 0.056894858908554155: 1, 0.056889575879010515: 1, 0.056888969660215276: 1, 0.056886107183362108: 1, 0.05688001297643222: 1, 0.056876488898731814: 1, 0.056875679237106028: 1, 0.056874979119177813: 1, 0.05687365306373468: 1, 0.056865466783717768: 1, 0.056863428130982739: 1, 0.056856243802663013: 1, 0.056853868228200349: 1, 0.056828903936758574: 1, 0.056817954128192759: 1, 0.056810811058972815: 1, 0.056810255056709814: 1, 0.056806497493166033: 1, 0.056806447482030641: 1, 0.056800045089993076: 1, 0.056796503486320399: 1, 0.056795166393317401: 1, 0.05678914150848767: 1, 0.056788668112017507: 1, 0.056784653427487244: 1, 0.056784353487176559: 1, 0.05677944931460957: 1, 0.056766316803504219: 1, 0.056766220508191523: 1, 0.056762220140488033: 1, 0.056749221000537538: 1, 0.056741992597378194: 1, 0.056737729025485975: 1, 0.056735568444652225: 1, 0.056734105624716376: 1, 0.056729329950822124: 1, 0.056727314193555721: 1, 0.056721351690414555: 1, 0.056718906776517169: 1, 0.056716680708905912: 1, 0.056704133460972507: 1, 0.056700357356587079: 1, 0.056697298367996293: 1, 0.056690735342258616: 1, 0.056681247047885137: 1, 0.056677246296398046: 1, 0.056675141420929574: 1, 0.056668071376643758: 1, 0.056665286216018726: 1, 0.05664478696318926: 1, 0.056644709202403651: 1, 0.056637750797117539: 1, 0.056622245283349179: 1, 0.056617791979334732: 1, 0.056612169645756702: 1, 0.056606991470285022: 1, 0.056600333165162608: 1, 0.056591458684259889: 1, 0.05658510291213719: 1, 0.056577018951539333: 1, 0.056576289757830078: 1, 0.056565010911336276: 1, 0.056562738417122567: 1, 0.056561846954309415: 1, 0.056558975209308492: 1, 0.056558189972537004: 1, 0.056552333369522395: 1, 0.056550034712680212: 1, 0.056539322614059008: 1, 0.056529814755129075: 1, 0.056513147138646844: 1, 0.056510171713622603: 1, 0.056506744146629997: 1, 0.056505782498435499: 1, 0.056503261982746196: 1, 0.056501847513664966: 1, 0.056501600003292414: 1, 0.056472306717051668: 1, 0.056472176274226252: 1, 0.056468838745685701: 1, 0.056464924452332442: 1, 0.056459517680576526: 1, 0.056450457791652267: 1, 0.05644742139837669: 1, 0.056445530040806373: 1, 0.056439818468265318: 1, 0.056436355883139999: 1, 0.056432295076086665: 1, 0.056414652435128831: 1, 0.0564029684000441: 1, 0.056396300815295154: 1, 0.056384237517201598: 1, 0.056383887489347057: 1, 0.056381832181489212: 1, 0.056381446000792534: 1, 0.056374685812779109: 1, 0.056354828677801422: 1, 0.056348158336954168: 1, 0.056341401013569804: 1, 0.056335811240040924: 1, 0.056330232646886184: 1, 0.056329421390955647: 1, 0.056329333305834395: 1, 0.056329255027228492: 1, 0.056318327148977672: 1, 0.05631557129811196: 1, 0.056309372200616339: 1, 0.056305310040557312: 1, 0.056303139646271545: 1, 0.056294346731493354: 1, 0.056293355955212718: 1, 0.056289905003718735: 1, 0.05628565541702929: 1, 0.056281301021611684: 1, 0.056275399102785839: 1, 0.056253203835793603: 1, 0.05625247486754624: 1, 0.056248356794816837: 1, 0.056243606618898406: 1, 0.056241944447097715: 1, 0.056237424302428236: 1, 0.05623544724851344: 1, 0.056232189692025737: 1, 0.056231766326240509: 1, 0.056225446007908991: 1, 0.056212782745242704: 1, 0.056210312808177398: 1, 0.056209839865221684: 1, 0.05620665661646617: 1, 0.056205729277582085: 1, 0.05620161417515341: 1, 0.056198636440722871: 1, 0.05618347551161805: 1, 0.056179226346999692: 1, 0.056177923736610874: 1, 0.056173089823198782: 1, 0.056171102544289878: 1, 0.056168286969492054: 1, 0.056153554034283036: 1, 0.056150395543681786: 1, 0.056137145099501892: 1, 0.056134202927771611: 1, 0.056133965549754514: 1, 0.056133741327483402: 1, 0.056133647816197528: 1, 0.056132828838085826: 1, 0.056129110062540732: 1, 0.056112062146594387: 1, 0.056094900454441994: 1, 0.056092562656515473: 1, 0.056091802745554142: 1, 0.056090063738171915: 1, 0.056088433915045997: 1, 0.056066886090332217: 1, 0.056066424357290416: 1, 0.056049458051037837: 1, 0.056021502742902782: 1, 0.056018850015884816: 1, 0.05601864545095029: 1, 0.056004961162539918: 1, 0.056003335748736525: 1, 0.056000084014114201: 1, 0.055999838615362028: 1, 0.055993087184099843: 1, 0.055991686718290287: 1, 0.055989546312406359: 1, 0.055965780491553568: 1, 0.055943671231206832: 1, 0.05594131837877802: 1, 0.055907802140771401: 1, 0.055904314726628185: 1, 0.055885427714841784: 1, 0.055872235091347228: 1, 0.055869496708044496: 1, 0.055868295879810972: 1, 0.055865336408716305: 1, 0.055853320957752577: 1, 0.055852335229874386: 1, 0.055849854438891455: 1, 0.055842382207420625: 1, 0.055836823497024395: 1, 0.055820189957459902: 1, 0.055818998814892835: 1, 0.055815000838691002: 1, 0.055809326208342711: 1, 0.055808459356239584: 1, 0.055800625773437668: 1, 0.055788078973628162: 1, 0.055779093518959655: 1, 0.055776778046449135: 1, 0.055775779371122922: 1, 0.055769188725472867: 1, 0.055760485664221093: 1, 0.05574589829924867: 1, 0.055736075848197494: 1, 0.055725781112259523: 1, 0.055715355878089588: 1, 0.055712428759559958: 1, 0.055707590204769619: 1, 0.055706138910493433: 1, 0.055706088579431018: 1, 0.055689388117087638: 1, 0.055684986334264275: 1, 0.055667507428607835: 1, 0.055662379937632248: 1, 0.055650328313383055: 1, 0.055647625390417406: 1, 0.055646682496545308: 1, 0.055633266535091985: 1, 0.055632150083865614: 1, 0.055627636884789888: 1, 0.055625351090929108: 1, 0.055605622362231134: 1, 0.055598331408659565: 1, 0.055587242130841659: 1, 0.05558078075404807: 1, 0.055574678529839015: 1, 0.055561209304128084: 1, 0.055553576419334713: 1, 0.055548889640204636: 1, 0.055548839237782893: 1, 0.05552031079037599: 1, 0.055519401486356673: 1, 0.05551832007891476: 1, 0.055516307792928696: 1, 0.055515370354338074: 1, 0.055510969314682128: 1, 0.055508857787915818: 1, 0.055500992541821836: 1, 0.055497662220404087: 1, 0.055496707825274584: 1, 0.055495593840885489: 1, 0.055493491049959404: 1, 0.055491919351591312: 1, 0.055489033407727359: 1, 0.055482920273912752: 1, 0.055475833681965153: 1, 0.055466710365256036: 1, 0.055463787752307286: 1, 0.055463412356055578: 1, 0.055458298337290782: 1, 0.0554582584577097: 1, 0.05545701005720511: 1, 0.055456284993372199: 1, 0.055456044168354507: 1, 0.055451776432348415: 1, 0.055446535111268999: 1, 0.055442609457912739: 1, 0.05542687422975219: 1, 0.05542671126518367: 1, 0.055421830186176288: 1, 0.055420136449982269: 1, 0.055413856931838215: 1, 0.055411318248803736: 1, 0.055410462709792586: 1, 0.055406085771857343: 1, 0.055405080171509268: 1, 0.055401007402492264: 1, 0.055395836506986325: 1, 0.05539551921895005: 1, 0.055366136553853404: 1, 0.055354025433118313: 1, 0.055353219579375286: 1, 0.055348336352829985: 1, 0.055343740678720853: 1, 0.055340067639099086: 1, 0.055334830293880782: 1, 0.055332092292137994: 1, 0.05531923826203583: 1, 0.055310309634107623: 1, 0.055300704908484412: 1, 0.055293687693953465: 1, 0.055289981734500018: 1, 0.055287733114295114: 1, 0.05528534478082521: 1, 0.05528462229600678: 1, 0.055282835914945261: 1, 0.055282749086181443: 1, 0.05527783122478: 1, 0.055277371789098424: 1, 0.055276257648449602: 1, 0.055267920088795046: 1, 0.055260146470127107: 1, 0.055259322970726492: 1, 0.055257785480982875: 1, 0.055245686188562904: 1, 0.055242834335106211: 1, 0.055230976656317904: 1, 0.05521837473912778: 1, 0.055216235098191978: 1, 0.05520033737337543: 1, 0.055200077061271134: 1, 0.055184240152221301: 1, 0.055177305514231459: 1, 0.055172627219116997: 1, 0.055163216887436806: 1, 0.055157976887813417: 1, 0.055154353544805579: 1, 0.055151966902142288: 1, 0.055150141002857554: 1, 0.055141700351740146: 1, 0.055136440175110206: 1, 0.055135621594514357: 1, 0.055135373770754476: 1, 0.055123805057761197: 1, 0.05512282454420725: 1, 0.055119937562526686: 1, 0.055119734255143112: 1, 0.055113368402337728: 1, 0.055110110276820917: 1, 0.05509836944174374: 1, 0.055097906966106738: 1, 0.055088147137225783: 1, 0.055086334673012792: 1, 0.055084327955444636: 1, 0.055080889638856004: 1, 0.055073051808640375: 1, 0.055072957406911392: 1, 0.05507196255111204: 1, 0.055069566113228094: 1, 0.055066880485151501: 1, 0.055060567674228206: 1, 0.055056939901557564: 1, 0.055053452448254575: 1, 0.055049452032890064: 1, 0.055048494956666041: 1, 0.055043628286433041: 1, 0.055039369559573906: 1, 0.055026553579432883: 1, 0.055025134475293683: 1, 0.054993150441771707: 1, 0.054975385543016973: 1, 0.054958179623010417: 1, 0.054944161708347213: 1, 0.054943962899213342: 1, 0.054942113323417592: 1, 0.054939496508126011: 1, 0.054937697974215084: 1, 0.054927428050893741: 1, 0.054922783273929313: 1, 0.054915311060676299: 1, 0.054914293451134216: 1, 0.054904439295891207: 1, 0.05489114535887963: 1, 0.054889764113165013: 1, 0.054881133318191694: 1, 0.054880217363765936: 1, 0.054870326596041144: 1, 0.054848570163325949: 1, 0.05484512166538049: 1, 0.054842100952408976: 1, 0.054835702796615392: 1, 0.054834517753137642: 1, 0.054828824037387952: 1, 0.054819897407031588: 1, 0.054814854414341758: 1, 0.054811266706059819: 1, 0.054796038487948333: 1, 0.054792130413056535: 1, 0.054783225847025899: 1, 0.054766863484453393: 1, 0.054755384465520564: 1, 0.05475370574594806: 1, 0.054750834424557644: 1, 0.054739710671423573: 1, 0.05473411293284175: 1, 0.054729380826918576: 1, 0.054729257795419137: 1, 0.054727034576783982: 1, 0.054724873645436906: 1, 0.054722526698326245: 1, 0.054720964992808471: 1, 0.054717360506819697: 1, 0.054702706853725247: 1, 0.054700100816665841: 1, 0.054699198202270226: 1, 0.054697149560712248: 1, 0.054696717865927884: 1, 0.054692485710273998: 1, 0.054689263006595254: 1, 0.054675750952200904: 1, 0.05466690571779876: 1, 0.054660768999864467: 1, 0.054656524658987904: 1, 0.05464947821700189: 1, 0.054648516126196395: 1, 0.054645448026113798: 1, 0.054627168155727379: 1, 0.054621710275434207: 1, 0.054621487064331495: 1, 0.054616029122421306: 1, 0.054614667617358476: 1, 0.054611993878812361: 1, 0.054608094400988065: 1, 0.054607522002784133: 1, 0.054606841755949639: 1, 0.054601916241035046: 1, 0.054597162918464948: 1, 0.054592299303455064: 1, 0.054591247986921256: 1, 0.054586562709719177: 1, 0.054581256474258946: 1, 0.054574724860011928: 1, 0.054565771640329767: 1, 0.054564916798040451: 1, 0.054559250938554849: 1, 0.054546869288917381: 1, 0.054533843736534353: 1, 0.054533562542729813: 1, 0.054523341558407178: 1, 0.054504302659234088: 1, 0.054502765306102735: 1, 0.054500119447500904: 1, 0.054495429270473988: 1, 0.054485486353983155: 1, 0.054479345555005977: 1, 0.054478357697749953: 1, 0.054476370554881637: 1, 0.054465007300668465: 1, 0.054463424444661582: 1, 0.054453441077419333: 1, 0.054453111061444029: 1, 0.054448532428942209: 1, 0.054441559163605741: 1, 0.054436355176615631: 1, 0.054431096573170218: 1, 0.054413083533091669: 1, 0.05440957053675545: 1, 0.054408478479296501: 1, 0.054406304559801423: 1, 0.054405980552899288: 1, 0.054404599997565424: 1, 0.054400162020519865: 1, 0.05439419056823365: 1, 0.054386297193749093: 1, 0.054371122695953795: 1, 0.054360265596676255: 1, 0.054356001760590709: 1, 0.054355917786297767: 1, 0.054355544864828992: 1, 0.054354707830674864: 1, 0.054352068287527658: 1, 0.054328749248251769: 1, 0.054323045287906928: 1, 0.054320820081704635: 1, 0.054318956562416205: 1, 0.054307871723928078: 1, 0.054298466277112031: 1, 0.054289703694314483: 1, 0.054288752769920533: 1, 0.054287241207118857: 1, 0.054276412954581889: 1, 0.054274301436462148: 1, 0.054268871114959767: 1, 0.054264421358982948: 1, 0.054252882982690827: 1, 0.054252257826451399: 1, 0.05422186655881988: 1, 0.054215772865368037: 1, 0.054207592154294201: 1, 0.054199498100105187: 1, 0.054186343933249385: 1, 0.054182897280990086: 1, 0.054163901645682987: 1, 0.054148069876269106: 1, 0.054139333664598534: 1, 0.054132385542301736: 1, 0.05412906159055067: 1, 0.054125162718577598: 1, 0.054109617548004051: 1, 0.054089295871110624: 1, 0.054084618084865928: 1, 0.054079130642285922: 1, 0.054064406606610514: 1, 0.054043622420386329: 1, 0.054041661396990279: 1, 0.054031123269913675: 1, 0.054023174948780617: 1, 0.05401568824040881: 1, 0.054015446059092198: 1, 0.054012795638506202: 1, 0.0540110025389125: 1, 0.054009288155291969: 1, 0.054007812710592171: 1, 0.054003082419674109: 1, 0.054002193881504262: 1, 0.053997270573245909: 1, 0.053996391650131113: 1, 0.053993765731278676: 1, 0.053988727547079299: 1, 0.053984066805529522: 1, 0.053978492288435126: 1, 0.053978186306801734: 1, 0.053977795574236861: 1, 0.05396791010710203: 1, 0.053964973912567035: 1, 0.053964124227826933: 1, 0.05396269311755944: 1, 0.053954985021425414: 1, 0.053935967846618187: 1, 0.053932530009224953: 1, 0.053926774368804713: 1, 0.05392634283875606: 1, 0.053916889334842968: 1, 0.053915106906582674: 1, 0.053910753846728603: 1, 0.053906276569803298: 1, 0.053901771666801934: 1, 0.053899165022933127: 1, 0.05389848031545539: 1, 0.053892249072035027: 1, 0.053865964723142923: 1, 0.053861444839515576: 1, 0.05385977890515653: 1, 0.05384937213495488: 1, 0.053839128255238934: 1, 0.05383231149914549: 1, 0.05381909653346309: 1, 0.053816558265019757: 1, 0.053815976052374023: 1, 0.053809767257717966: 1, 0.053797514111991983: 1, 0.053796682419764985: 1, 0.053785790816692512: 1, 0.053778541227111461: 1, 0.053768453737645917: 1, 0.053766454382367442: 1, 0.053760681359064588: 1, 0.053757953483563797: 1, 0.053753424599021354: 1, 0.053746704018642226: 1, 0.053738823587558097: 1, 0.053731803580367277: 1, 0.053729348200678977: 1, 0.053728188157196495: 1, 0.053727710724882402: 1, 0.053699649668219322: 1, 0.053691658105519124: 1, 0.053679656761453601: 1, 0.053677372487923078: 1, 0.053673392484138646: 1, 0.053671332081431933: 1, 0.053666614511455532: 1, 0.053657789023313224: 1, 0.053656403555146392: 1, 0.053649843772525213: 1, 0.053644723607326972: 1, 0.053640043932373163: 1, 0.053639695630205105: 1, 0.053637265435485151: 1, 0.053633959236894978: 1, 0.053612925793193815: 1, 0.053595869059551569: 1, 0.053595310226865589: 1, 0.05359345264412757: 1, 0.053585934550582179: 1, 0.053585879252569524: 1, 0.053584342498709685: 1, 0.053583045991031898: 1, 0.053577898062139813: 1, 0.053559844206331274: 1, 0.053553859597358096: 1, 0.053551824245414999: 1, 0.053540434556976199: 1, 0.053538666872777585: 1, 0.053517097792724816: 1, 0.053516632845685787: 1, 0.053512720299472009: 1, 0.053511690993543574: 1, 0.053509065494145074: 1, 0.05350796338528134: 1, 0.053503511190203995: 1, 0.0535023286170302: 1, 0.053499898024752357: 1, 0.053499239580962671: 1, 0.053495315831309703: 1, 0.053484420132131186: 1, 0.05347098169977238: 1, 0.053466367066238495: 1, 0.053463798971102518: 1, 0.053459744327232883: 1, 0.053456963546522407: 1, 0.053455033675504922: 1, 0.053445520617099188: 1, 0.053443629903723693: 1, 0.053431722891108015: 1, 0.05341906493265966: 1, 0.053412282411569013: 1, 0.05340851833449968: 1, 0.053402460677536109: 1, 0.053402080216912617: 1, 0.053400333588016935: 1, 0.053391604174423582: 1, 0.053389764832236883: 1, 0.053389006104443699: 1, 0.053363970719414747: 1, 0.053350811090747755: 1, 0.053349235769212154: 1, 0.053332935948479113: 1, 0.053329129990343088: 1, 0.053328288829680867: 1, 0.053321640190982622: 1, 0.053320802424973293: 1, 0.053319693962605448: 1, 0.053314656206723737: 1, 0.053313815230957032: 1, 0.053312103044106093: 1, 0.053311494839618195: 1, 0.053306713915284833: 1, 0.053304864021934753: 1, 0.053302166660732959: 1, 0.053301054672127021: 1, 0.053299483988125479: 1, 0.053291157563539956: 1, 0.053288868264921262: 1, 0.053282531620674596: 1, 0.053273616249201239: 1, 0.053260751173574532: 1, 0.053260741166112284: 1, 0.053257480081662964: 1, 0.05325148644738055: 1, 0.053250484700237515: 1, 0.053237262003262696: 1, 0.053232842003742648: 1, 0.053216471338097496: 1, 0.053212711374358297: 1, 0.053206681059629717: 1, 0.05320663700025826: 1, 0.053192248529508712: 1, 0.053184167993997541: 1, 0.053177912927594669: 1, 0.053175209561832165: 1, 0.053163143153562784: 1, 0.053160676577948297: 1, 0.053156036921583043: 1, 0.053154871366105853: 1, 0.053149290956195951: 1, 0.053139606303905504: 1, 0.053130157641818263: 1, 0.053119417438726904: 1, 0.05311728981913931: 1, 0.053105691518614107: 1, 0.053103408272154089: 1, 0.053091986258119658: 1, 0.053074546124171632: 1, 0.053074324379791323: 1, 0.053061861107640482: 1, 0.053060380511856714: 1, 0.053057234228803832: 1, 0.053053816474123237: 1, 0.053042635101421765: 1, 0.053040847615400608: 1, 0.053037264839427167: 1, 0.053035558438703105: 1, 0.053034813504632641: 1, 0.053034406347116661: 1, 0.05302646348146433: 1, 0.053023510470374111: 1, 0.053013743578285005: 1, 0.053013019320338105: 1, 0.053000682831166074: 1, 0.05298497482206363: 1, 0.052982736239873561: 1, 0.052969594740690185: 1, 0.052966695140745479: 1, 0.05296618517959794: 1, 0.052955010099139513: 1, 0.052954595161029697: 1, 0.052950624764742799: 1, 0.052948878713511546: 1, 0.052941134297505778: 1, 0.052936553560276801: 1, 0.052933469268305028: 1, 0.052933304225670365: 1, 0.052925712706456816: 1, 0.05290903242288765: 1, 0.052908532987130684: 1, 0.052908441328356065: 1, 0.052904901539754239: 1, 0.05289975285128528: 1, 0.052897173564048834: 1, 0.052887364831587652: 1, 0.052884462249719509: 1, 0.052882225572190515: 1, 0.052877855230487228: 1, 0.052868475112174712: 1, 0.05286730399906428: 1, 0.052858146657134189: 1, 0.052849554324957505: 1, 0.052845623158718047: 1, 0.052842654388707409: 1, 0.052837183974382994: 1, 0.052835291414135697: 1, 0.052834930322757705: 1, 0.052834098016926005: 1, 0.052830555213934149: 1, 0.052819407178882082: 1, 0.052789001845248415: 1, 0.052785334693804004: 1, 0.052784826575611232: 1, 0.052779960221179319: 1, 0.052777560242804361: 1, 0.052776986197246974: 1, 0.052775349519460876: 1, 0.052762966109144029: 1, 0.052759031629970789: 1, 0.052754075227688602: 1, 0.052753232275939033: 1, 0.052751183433839603: 1, 0.052745638420489217: 1, 0.052742508827637709: 1, 0.052731456762020935: 1, 0.05272890378837472: 1, 0.052724053972863574: 1, 0.052722089591713747: 1, 0.052716558438810616: 1, 0.052715710465506785: 1, 0.052707709949800799: 1, 0.052702416272602873: 1, 0.052695967996871845: 1, 0.05269236249678938: 1, 0.052689472952837824: 1, 0.05268340107810373: 1, 0.052683158313180267: 1, 0.052678814713431991: 1, 0.052676508324166343: 1, 0.05266888142170404: 1, 0.052656869910899996: 1, 0.05263569865652451: 1, 0.052631992198750033: 1, 0.052618186110352488: 1, 0.05260314200805636: 1, 0.052594548514604281: 1, 0.052585167593761285: 1, 0.052583353621818874: 1, 0.052581030685477211: 1, 0.052575825764371274: 1, 0.0525703243049312: 1, 0.052567474704072206: 1, 0.052560198943063068: 1, 0.052554636060440252: 1, 0.052550536442224155: 1, 0.052549690127168314: 1, 0.052548004178103021: 1, 0.052547709033112365: 1, 0.052545845860514154: 1, 0.052544515224421905: 1, 0.052544213693616212: 1, 0.052543185645175502: 1, 0.0525357015474597: 1, 0.052529831598850461: 1, 0.052528840832136312: 1, 0.052526787650599302: 1, 0.052522369009703307: 1, 0.052503630521046334: 1, 0.052499274469131878: 1, 0.052496497716410059: 1, 0.052494050087474091: 1, 0.05249245288623007: 1, 0.052491679943030486: 1, 0.05247117566922322: 1, 0.05246681020712593: 1, 0.05245786456676263: 1, 0.052440474732550306: 1, 0.052439993529245679: 1, 0.052438925552868866: 1, 0.052437288293570687: 1, 0.052431779117755005: 1, 0.052430162314621845: 1, 0.052429219706326836: 1, 0.052426882992523481: 1, 0.052402020245529722: 1, 0.052396983021668002: 1, 0.052395169565226704: 1, 0.052393110866933545: 1, 0.052388528317006793: 1, 0.052384370751655973: 1, 0.052377997674958272: 1, 0.052377135326118929: 1, 0.05237245542302673: 1, 0.052369958773560307: 1, 0.05236913137960153: 1, 0.052360916735308669: 1, 0.052352051131868096: 1, 0.052330516053853519: 1, 0.052328031870190868: 1, 0.052326510095414724: 1, 0.052323299973964926: 1, 0.052319473081733535: 1, 0.052318261127823423: 1, 0.052302157034669651: 1, 0.052295675230381811: 1, 0.052294126332531332: 1, 0.052277932371087327: 1, 0.052270977997287568: 1, 0.052269119931679819: 1, 0.052260310648553646: 1, 0.052259060698747258: 1, 0.052259003927054987: 1, 0.052253850361775343: 1, 0.052249053452935276: 1, 0.052248330366655348: 1, 0.052239709811087408: 1, 0.052227248997907108: 1, 0.052219886482847089: 1, 0.052186668757975979: 1, 0.052179031839927503: 1, 0.052172626497699326: 1, 0.052170068290452273: 1, 0.052164325426261322: 1, 0.052154502556443633: 1, 0.052152642605708566: 1, 0.052140665313414318: 1, 0.052127027919121591: 1, 0.052126367388833111: 1, 0.052126027951593053: 1, 0.052116166938326505: 1, 0.052112440776220834: 1, 0.052091283882854056: 1, 0.052076157133444295: 1, 0.05206718273177581: 1, 0.052062657698065548: 1, 0.052062625739612872: 1, 0.052040627967670158: 1, 0.052037536825182071: 1, 0.052033680794489084: 1, 0.052030144113164041: 1, 0.052029236024853716: 1, 0.052015715018831676: 1, 0.052007236254758754: 1, 0.051997667451427552: 1, 0.051996732780277041: 1, 0.051996262812161347: 1, 0.051970474611404291: 1, 0.051968149521365845: 1, 0.051966553699456061: 1, 0.051963392078571091: 1, 0.051954382765928758: 1, 0.051954248892565794: 1, 0.051948068715089252: 1, 0.051946800433744215: 1, 0.051946700366280588: 1, 0.05193638959942027: 1, 0.051934344161080226: 1, 0.051933962168457651: 1, 0.051929757349021208: 1, 0.051924773371216024: 1, 0.051922853660884581: 1, 0.051919458318652439: 1, 0.051918531844172333: 1, 0.051914683045003705: 1, 0.051913605202497132: 1, 0.051911404140570896: 1, 0.051903039076998649: 1, 0.051901203478301912: 1, 0.051898895172037295: 1, 0.051890860750352812: 1, 0.051885673393369969: 1, 0.051879109028835725: 1, 0.051872128110564672: 1, 0.051868980738043483: 1, 0.051862866090453388: 1, 0.051848276716623232: 1, 0.051840196576532188: 1, 0.051836466080288801: 1, 0.051831004181670151: 1, 0.051830470779896345: 1, 0.051823024185680584: 1, 0.051821373163413308: 1, 0.051815100965151406: 1, 0.051812912012151609: 1, 0.051812514732674328: 1, 0.051809181377924667: 1, 0.051803160406549288: 1, 0.051799540082912827: 1, 0.051789420321027263: 1, 0.051786607244484827: 1, 0.051784153449707528: 1, 0.051782929311332541: 1, 0.051781018746414262: 1, 0.051780315574009111: 1, 0.051779549694970492: 1, 0.051770662182478888: 1, 0.051768771885129267: 1, 0.051755966541166681: 1, 0.051748350430606757: 1, 0.051735187490986656: 1, 0.051734895716861358: 1, 0.051732593381366591: 1, 0.051722606441104116: 1, 0.051718683442148569: 1, 0.051714788314902144: 1, 0.051705461542945634: 1, 0.051699040226973983: 1, 0.051697727447478747: 1, 0.051682351268242888: 1, 0.051680464314128031: 1, 0.051671234253184234: 1, 0.051665159339126701: 1, 0.051653777386801075: 1, 0.051649411972065698: 1, 0.051617293933754853: 1, 0.051617086849127546: 1, 0.051616145965071088: 1, 0.051609216374011377: 1, 0.051588672917621453: 1, 0.051586759164824775: 1, 0.051582828827934739: 1, 0.051579764209174782: 1, 0.051567585383736583: 1, 0.051562402359359528: 1, 0.051545269930662947: 1, 0.051541681378829966: 1, 0.051534625643398245: 1, 0.051524754934488895: 1, 0.051520875166440418: 1, 0.051517954529128308: 1, 0.051510312641540199: 1, 0.051509489740523794: 1, 0.05149384459939884: 1, 0.05149241436984512: 1, 0.051482233225356021: 1, 0.051480915387883623: 1, 0.051475647946121909: 1, 0.051473492529459215: 1, 0.051468738376261723: 1, 0.051461579314539832: 1, 0.051457000851517665: 1, 0.051452726761741709: 1, 0.05144670196284596: 1, 0.051444922771111151: 1, 0.051443727721537852: 1, 0.051437338163829005: 1, 0.051436992859481515: 1, 0.051436948993253941: 1, 0.05143574438156244: 1, 0.051434556340671768: 1, 0.051431842282406333: 1, 0.051429765950618475: 1, 0.0514279723025068: 1, 0.051419886262995672: 1, 0.051413605869047703: 1, 0.051411959827011945: 1, 0.051407639018612686: 1, 0.051405486317482867: 1, 0.051404784349175073: 1, 0.051389626104553797: 1, 0.051376902352104986: 1, 0.051375019654365098: 1, 0.051371127613738646: 1, 0.051370815453017769: 1, 0.051368873901312694: 1, 0.051362343959387574: 1, 0.051358199840343989: 1, 0.051330177362101902: 1, 0.051325269570108717: 1, 0.051321335810434229: 1, 0.051320077863699701: 1, 0.051317634694651441: 1, 0.051309884122652: 1, 0.05129934587667459: 1, 0.051297968525136559: 1, 0.051290954558411303: 1, 0.051286373412168192: 1, 0.051269279477520524: 1, 0.051254514274014132: 1, 0.051249305219034411: 1, 0.051208467759289319: 1, 0.051206189927928344: 1, 0.05119076205975933: 1, 0.051185258437218766: 1, 0.051185243818525461: 1, 0.05118254281893031: 1, 0.051172110587775078: 1, 0.051171432712271023: 1, 0.05116765883543585: 1, 0.051161578461952635: 1, 0.051160791127076277: 1, 0.051156379539428094: 1, 0.05115021668261998: 1, 0.051141458665847371: 1, 0.051140838737760104: 1, 0.051139673609893417: 1, 0.051138702261390348: 1, 0.051134639868336565: 1, 0.051124716274564018: 1, 0.051114831932121033: 1, 0.051101549900551192: 1, 0.051096708135346461: 1, 0.051096250281187056: 1, 0.051084959916151113: 1, 0.051062545908104919: 1, 0.051059534448484906: 1, 0.051057545509269803: 1, 0.051056146670061073: 1, 0.051049278565973466: 1, 0.051036271519255126: 1, 0.051036240331265692: 1, 0.05102045226401563: 1, 0.051019417403527972: 1, 0.051014193006917695: 1, 0.051013802112787783: 1, 0.051010802580006724: 1, 0.051008635019448495: 1, 0.050991240219047565: 1, 0.050986411307625143: 1, 0.050973615385474021: 1, 0.050960701194368831: 1, 0.050955321835962873: 1, 0.05095311392101004: 1, 0.050941182294593733: 1, 0.050935528357121625: 1, 0.050933227914417838: 1, 0.050927760572900181: 1, 0.05092589241647931: 1, 0.050922668531699786: 1, 0.050922013376060025: 1, 0.050919977239474862: 1, 0.050916865892428269: 1, 0.050915749153950987: 1, 0.050907967314941335: 1, 0.050890787376415898: 1, 0.050890727243424069: 1, 0.050882870460234486: 1, 0.050882132796791671: 1, 0.050881597626098674: 1, 0.050880941794671203: 1, 0.050878180175462709: 1, 0.050872678445825367: 1, 0.050868584972206192: 1, 0.050864227881855018: 1, 0.05085429507346418: 1, 0.050851699651078705: 1, 0.050844035275544264: 1, 0.050837710821269616: 1, 0.050833789683712077: 1, 0.050820281169391066: 1, 0.05081889452146944: 1, 0.050812832319032886: 1, 0.050812103713059123: 1, 0.050804407529569426: 1, 0.050803162880719219: 1, 0.050800375814740173: 1, 0.05079902149966796: 1, 0.050798527804090748: 1, 0.050791612270334366: 1, 0.050790956160471107: 1, 0.050788596231275934: 1, 0.050786232046003868: 1, 0.050774374020798346: 1, 0.05076881026685294: 1, 0.050762878467615249: 1, 0.050757668476667059: 1, 0.050754658822071773: 1, 0.050746108839724476: 1, 0.050740028313838885: 1, 0.05073813618644981: 1, 0.050728436566625401: 1, 0.050719136019467419: 1, 0.050700914690458558: 1, 0.050700170362365259: 1, 0.05069689457243734: 1, 0.05069281157604745: 1, 0.05069089753361964: 1, 0.050681189763037968: 1, 0.050681079024991603: 1, 0.050674728225694785: 1, 0.050667786587172643: 1, 0.050663769888817989: 1, 0.050662483970852386: 1, 0.050661123279857695: 1, 0.050660386967056853: 1, 0.05065383268956955: 1, 0.050653472633357052: 1, 0.050650546324164936: 1, 0.050650024968735601: 1, 0.050639886880368246: 1, 0.05063235234455303: 1, 0.050632321993428611: 1, 0.050623513831850403: 1, 0.050622918074298369: 1, 0.050609533762173538: 1, 0.05060833757763801: 1, 0.050606460694437687: 1, 0.050600881856883176: 1, 0.050600329786238768: 1, 0.0505896671916123: 1, 0.050583236179262026: 1, 0.050582653738682405: 1, 0.050581375998881094: 1, 0.050580321347053855: 1, 0.050576509984567572: 1, 0.050574649075307967: 1, 0.050563560217840156: 1, 0.05056274429297028: 1, 0.050561672259062274: 1, 0.0505604721783895: 1, 0.050552688305600633: 1, 0.050552466724817266: 1, 0.05055158215130473: 1, 0.050549621115733703: 1, 0.050538597654390741: 1, 0.050535381375942996: 1, 0.050520237905443806: 1, 0.050514227849204042: 1, 0.050508524099302822: 1, 0.050504235627674601: 1, 0.050502557856989851: 1, 0.050496425957582441: 1, 0.050493566233012301: 1, 0.050490022940721024: 1, 0.05048332846670027: 1, 0.05047952985247102: 1, 0.050479308544203967: 1, 0.050470687416930081: 1, 0.050460259752739989: 1, 0.050454126647429848: 1, 0.050452317668228421: 1, 0.05044746827395187: 1, 0.050446050214025734: 1, 0.050444665780276454: 1, 0.050441782199255519: 1, 0.050432431167473299: 1, 0.050426982099162701: 1, 0.050423196597026716: 1, 0.050418179466286482: 1, 0.050416499469717893: 1, 0.050409559812543303: 1, 0.050409494422277906: 1, 0.05040039405917815: 1, 0.050394602523955209: 1, 0.050394453267071683: 1, 0.050394156753673806: 1, 0.050389555518237233: 1, 0.050383964488893346: 1, 0.050378656618563264: 1, 0.050370817303829439: 1, 0.050367105677776067: 1, 0.050366626510618753: 1, 0.050364309830163004: 1, 0.050363955156024064: 1, 0.050360846503609238: 1, 0.050357527621791125: 1, 0.050346268996417629: 1, 0.050344144563046325: 1, 0.050338311929872322: 1, 0.050336995406025348: 1, 0.05032965784278827: 1, 0.050328890949943854: 1, 0.050325107889438697: 1, 0.050321272043164667: 1, 0.050319456652001777: 1, 0.050308518526375641: 1, 0.050304132296958792: 1, 0.050303773907571431: 1, 0.050300379974380346: 1, 0.050298071134213765: 1, 0.05029515529087622: 1, 0.050294543351991086: 1, 0.050293390791366951: 1, 0.050292605599774609: 1, 0.050281300788341685: 1, 0.050275464216102822: 1, 0.050274969738633435: 1, 0.050272687865353237: 1, 0.050268550006633932: 1, 0.050267489536057891: 1, 0.050265439070722312: 1, 0.050259002798244232: 1, 0.050255172204916869: 1, 0.050252953323900638: 1, 0.050251982761606154: 1, 0.050245923749834435: 1, 0.050239396800263597: 1, 0.050225691049076884: 1, 0.050222461863829122: 1, 0.05021905579601256: 1, 0.050218722096385206: 1, 0.050218535257884521: 1, 0.050210679183316793: 1, 0.050210372257860701: 1, 0.050197776541029651: 1, 0.050178330677695053: 1, 0.0501684805456208: 1, 0.050161472888694492: 1, 0.050160962594151676: 1, 0.050160129863722175: 1, 0.050160060194867101: 1, 0.050157966349813322: 1, 0.050157855393467614: 1, 0.050146456764992776: 1, 0.050142641721120915: 1, 0.050142524786477724: 1, 0.050141665593003253: 1, 0.050114892395228275: 1, 0.050104076880755154: 1, 0.05010050794024095: 1, 0.050091250740422984: 1, 0.050084826980298036: 1, 0.050082554050123747: 1, 0.050079676219803061: 1, 0.050078325721487765: 1, 0.050076666158762759: 1, 0.050063082060400145: 1, 0.050062662998598587: 1, 0.050044035992367383: 1, 0.050042263916778261: 1, 0.050040559505388812: 1, 0.050039703856109771: 1, 0.050037302930824749: 1, 0.050033023890973867: 1, 0.050028758824709973: 1, 0.050019231955397495: 1, 0.050018703553382504: 1, 0.050014530772271248: 1, 0.050007397891774462: 1, 0.050002912199838351: 1, 0.049999328598053887: 1, 0.049995501095101751: 1, 0.049992306836564096: 1, 0.04997931393420648: 1, 0.049960555483067326: 1, 0.049959403147463444: 1, 0.049955382020742095: 1, 0.049952261222708051: 1, 0.049950874330485652: 1, 0.049947491666132597: 1, 0.049944529441320738: 1, 0.049940146524927981: 1, 0.04993030408369465: 1, 0.049927549054010478: 1, 0.049914649033932945: 1, 0.049914411924096791: 1, 0.049913377424473354: 1, 0.049906703459810561: 1, 0.049892908152724229: 1, 0.049885896143032279: 1, 0.049881458903563033: 1, 0.049878488432367925: 1, 0.049871529863121641: 1, 0.049870700478435559: 1, 0.0498705767201328: 1, 0.049847892837000939: 1, 0.049846027480447003: 1, 0.049843563052065547: 1, 0.049824618183196646: 1, 0.049823894453700078: 1, 0.049819110082365323: 1, 0.04981864968559753: 1, 0.049815205051886462: 1, 0.049814091307957706: 1, 0.049811793870264638: 1, 0.049807081946878239: 1, 0.049800438436750069: 1, 0.049798448397424422: 1, 0.049795333896481012: 1, 0.04979379221531384: 1, 0.049788460321130615: 1, 0.049780757322688489: 1, 0.049775200200098499: 1, 0.0497721924559607: 1, 0.049771966911779791: 1, 0.049770042545658193: 1, 0.04976499280525698: 1, 0.049756938380287379: 1, 0.049756186340035501: 1, 0.04975516317275485: 1, 0.049731398029465856: 1, 0.049714019832798051: 1, 0.049711173963732258: 1, 0.049702951701613832: 1, 0.049694614214575328: 1, 0.049689460964390177: 1, 0.049683157002914348: 1, 0.049679210897195111: 1, 0.049674314729781129: 1, 0.049668962770096817: 1, 0.049661419697135535: 1, 0.049654558831125371: 1, 0.049647324705595436: 1, 0.04964726903308038: 1, 0.049644394332515634: 1, 0.049640812285676225: 1, 0.049636344953107987: 1, 0.049630318952199444: 1, 0.049625469634239631: 1, 0.049619573322301956: 1, 0.04961889102505207: 1, 0.049614414485472783: 1, 0.049612990064241538: 1, 0.049609360630130592: 1, 0.049606187977819426: 1, 0.049605601135821596: 1, 0.049603623306787817: 1, 0.049597849251804479: 1, 0.049597622213255921: 1, 0.049591119831302433: 1, 0.049588319769412116: 1, 0.049588069773104863: 1, 0.049579871413526634: 1, 0.04957883459434468: 1, 0.049571037246176876: 1, 0.049566676486100102: 1, 0.049566063067999169: 1, 0.049562740950779505: 1, 0.049560520497472248: 1, 0.049554588444759504: 1, 0.049549296702485437: 1, 0.049546323325593354: 1, 0.049539986901204508: 1, 0.049528999107960173: 1, 0.049525836484322849: 1, 0.049524164066579827: 1, 0.049520088488636316: 1, 0.049513540069275538: 1, 0.049500103125299913: 1, 0.049494118428389716: 1, 0.049491201056050066: 1, 0.049485628179559323: 1, 0.049482058474495799: 1, 0.049480523459077511: 1, 0.049478463471331238: 1, 0.049457678824866534: 1, 0.049456112216312589: 1, 0.049450510523241398: 1, 0.049448434574817124: 1, 0.04944812357582451: 1, 0.049446439359590352: 1, 0.049435228007963107: 1, 0.049434146853052384: 1, 0.049431500159730496: 1, 0.049425049543333779: 1, 0.049423545924408584: 1, 0.04942280269109179: 1, 0.049415063568579165: 1, 0.04941232321333161: 1, 0.049408683588725827: 1, 0.049401881818028452: 1, 0.049399825024891826: 1, 0.049394623686627899: 1, 0.049392575598360924: 1, 0.049390755521307339: 1, 0.049390731655797146: 1, 0.049385808213152985: 1, 0.049373136394624387: 1, 0.049364519558672736: 1, 0.049362512388732467: 1, 0.049358709045008879: 1, 0.049350204035255536: 1, 0.049348092227786411: 1, 0.049343994772561128: 1, 0.04934124480837862: 1, 0.049338684639599249: 1, 0.049332280888513214: 1, 0.049331547585882735: 1, 0.049321508354362463: 1, 0.049317202195047094: 1, 0.049311778659663297: 1, 0.049299642362081522: 1, 0.04929493074065399: 1, 0.049294280366825982: 1, 0.049289329144369114: 1, 0.049274520484566528: 1, 0.049264379832402755: 1, 0.04926430909846724: 1, 0.049254600173444803: 1, 0.049251806967821977: 1, 0.049243384998705154: 1, 0.049237284234895831: 1, 0.049234089090317623: 1, 0.049233182683587479: 1, 0.049226511282139528: 1, 0.049223457744304505: 1, 0.049221852952638395: 1, 0.04922132684043827: 1, 0.049218448669144849: 1, 0.049208535660941896: 1, 0.049203748149945936: 1, 0.049191492136003018: 1, 0.049188289186783488: 1, 0.049179104449372138: 1, 0.049178775186033377: 1, 0.049160430006027114: 1, 0.049142594461813696: 1, 0.049140588568090574: 1, 0.049135850491791568: 1, 0.049134427874473807: 1, 0.049114446219735007: 1, 0.049112826917713064: 1, 0.049110644398999925: 1, 0.049100969077427649: 1, 0.04910043574869382: 1, 0.049098758838068413: 1, 0.049094157999401207: 1, 0.049089154887197187: 1, 0.04908535084447832: 1, 0.049077108894105326: 1, 0.049068026151888336: 1, 0.04906581474796147: 1, 0.049054806387057961: 1, 0.049052977572849522: 1, 0.049041243913805918: 1, 0.049038417124257466: 1, 0.049035014366129732: 1, 0.049030177771114: 1, 0.049028342365404494: 1, 0.049024933208867603: 1, 0.049010222763851467: 1, 0.049006007412008043: 1, 0.048999394824274449: 1, 0.04899888027471689: 1, 0.048987827562679789: 1, 0.048979659075705659: 1, 0.048975553693064479: 1, 0.048974656888582324: 1, 0.048972365748972374: 1, 0.048972059620069529: 1, 0.048971895828290785: 1, 0.048965001237608184: 1, 0.048950918587237942: 1, 0.048938594968545523: 1, 0.048937643971464419: 1, 0.048933897640993242: 1, 0.048933544920952358: 1, 0.048923183171813975: 1, 0.048922523692932596: 1, 0.048921898804898369: 1, 0.048913349640807721: 1, 0.048911259454677697: 1, 0.048911142345424305: 1, 0.048904364727937071: 1, 0.04889827537690359: 1, 0.048897019762616373: 1, 0.04888888433195139: 1, 0.048872309784890482: 1, 0.04886982422317443: 1, 0.048863212875393337: 1, 0.048862538829863522: 1, 0.048859652250787582: 1, 0.048856508394114179: 1, 0.04885520831646889: 1, 0.048854255611805328: 1, 0.048851602990327501: 1, 0.048849578767848123: 1, 0.048842943054328944: 1, 0.048840198993409953: 1, 0.048835943555548947: 1, 0.048835475271434468: 1, 0.048831639250625128: 1, 0.048829731848308702: 1, 0.048827404171187652: 1, 0.048821780449077076: 1, 0.048814507880416254: 1, 0.04881174168493975: 1, 0.048811006676343999: 1, 0.048809241874489359: 1, 0.048806615604301454: 1, 0.048798588858836554: 1, 0.048793721030850411: 1, 0.048788768859823833: 1, 0.048785135927370868: 1, 0.048778553731834109: 1, 0.048776772565327135: 1, 0.048775681181895035: 1, 0.048769677960156584: 1, 0.048766689498627724: 1, 0.048765373832489418: 1, 0.048764010912909536: 1, 0.048757693955882309: 1, 0.048752611579709781: 1, 0.048750876385108284: 1, 0.048748758564161623: 1, 0.048741509799433695: 1, 0.048739317788733909: 1, 0.048732394333819949: 1, 0.048730088028957459: 1, 0.048726011499202374: 1, 0.048719856807322576: 1, 0.048717654694849954: 1, 0.048704501864364355: 1, 0.048704081445294596: 1, 0.048694976592094187: 1, 0.048688742814597466: 1, 0.048686947219155279: 1, 0.048682995406253836: 1, 0.04868233604240027: 1, 0.048677816846784225: 1, 0.048676540811188981: 1, 0.048674526698132721: 1, 0.048662174984077884: 1, 0.048649322008781408: 1, 0.048630845318448176: 1, 0.048620166619477059: 1, 0.048610835397882482: 1, 0.048604740243339717: 1, 0.048600389800501645: 1, 0.048599777155763774: 1, 0.048599295745584366: 1, 0.048596404838311562: 1, 0.048583418954707559: 1, 0.048582119654925079: 1, 0.048575375872605055: 1, 0.048572589195774757: 1, 0.0485670729527874: 1, 0.048553330142388718: 1, 0.048544769016353725: 1, 0.048543711373806017: 1, 0.048541419702178047: 1, 0.048531680488275185: 1, 0.048529102152993192: 1, 0.048527577705772248: 1, 0.048516796238620707: 1, 0.048504410250610697: 1, 0.048494879772322357: 1, 0.048494511207563526: 1, 0.048493397082262246: 1, 0.048485627108681449: 1, 0.04847118772275235: 1, 0.048459543931071256: 1, 0.048439255067355254: 1, 0.048439022937622145: 1, 0.048435584235822796: 1, 0.048430432181217301: 1, 0.048428495932377622: 1, 0.04842170986021406: 1, 0.048420206294833332: 1, 0.048419038595681148: 1, 0.048414809348469257: 1, 0.048405670503157534: 1, 0.048387448170453207: 1, 0.048375759241456255: 1, 0.048372844108886974: 1, 0.04837075073018747: 1, 0.048363122709198604: 1, 0.048356373793644589: 1, 0.048350342300600542: 1, 0.048346625186060178: 1, 0.048345972907090577: 1, 0.048345502413103023: 1, 0.048337699917048629: 1, 0.048333315701214546: 1, 0.048332843484575824: 1, 0.048324086145536869: 1, 0.048320410796581836: 1, 0.048312201205763246: 1, 0.04830769349561214: 1, 0.048305130221984863: 1, 0.048303852542996253: 1, 0.048298106344455055: 1, 0.048297311222127493: 1, 0.04829127883429505: 1, 0.048284051217454577: 1, 0.048282873127002704: 1, 0.048280152062143977: 1, 0.04827961173194234: 1, 0.048276538421793337: 1, 0.048272509509750441: 1, 0.048272397912824755: 1, 0.048266677083617732: 1, 0.048264874568044028: 1, 0.048263493535732234: 1, 0.048258484112394355: 1, 0.048252603616354091: 1, 0.048252139378655884: 1, 0.048233370825201557: 1, 0.048228851235543276: 1, 0.048226158376807132: 1, 0.048222446067430945: 1, 0.048216504102829294: 1, 0.048209684769755644: 1, 0.048208896008505239: 1, 0.048206282941633795: 1, 0.048200603321762334: 1, 0.048199516644596388: 1, 0.048188611352879919: 1, 0.048174717763388178: 1, 0.048173936327081508: 1, 0.048173080957086202: 1, 0.048170071891153229: 1, 0.048142334833545644: 1, 0.048138224367579169: 1, 0.048137762473245631: 1, 0.04813365818942323: 1, 0.048130425649577022: 1, 0.048129987678669252: 1, 0.048123670428542153: 1, 0.048121669594769156: 1, 0.048116455152560057: 1, 0.048115210447485332: 1, 0.048111286530291154: 1, 0.048106526061718627: 1, 0.048102955035956907: 1, 0.048095883710362691: 1, 0.048088750579306935: 1, 0.048088582939264386: 1, 0.048088435062552018: 1, 0.048087663318981184: 1, 0.048082734061803356: 1, 0.048078117902877887: 1, 0.048078070296111289: 1, 0.04807633674957932: 1, 0.048075244193035396: 1, 0.048067666148794326: 1, 0.048038507491748254: 1, 0.048033879954726126: 1, 0.048019694125051651: 1, 0.048019519905171476: 1, 0.048017686024551171: 1, 0.048012672998010958: 1, 0.04801249472674702: 1, 0.048008765275290216: 1, 0.04800576289241016: 1, 0.047996499066856282: 1, 0.047995250337533255: 1, 0.047992995092991438: 1, 0.047989986518250649: 1, 0.047980476606008987: 1, 0.047972326582668007: 1, 0.04797077608315662: 1, 0.047967202715789505: 1, 0.047963863569378949: 1, 0.047962456978913215: 1, 0.047961880891733095: 1, 0.047949930187466544: 1, 0.047949253473046578: 1, 0.047947284707004857: 1, 0.047942569078242354: 1, 0.04793087524471603: 1, 0.047923876990924201: 1, 0.047914987964376883: 1, 0.047907606699187297: 1, 0.047905789787442657: 1, 0.047905343990874261: 1, 0.047901204968492039: 1, 0.047898108417218026: 1, 0.047897943909309057: 1, 0.04788475457399629: 1, 0.047883606201059928: 1, 0.047882557317238665: 1, 0.047881999474647011: 1, 0.047881095885697722: 1, 0.047877825737984638: 1, 0.047876336567440884: 1, 0.047867905115352542: 1, 0.047859471278713622: 1, 0.047853717590093534: 1, 0.047852766998791055: 1, 0.047842180167437215: 1, 0.047836360758744284: 1, 0.047830809331781174: 1, 0.047822223905600023: 1, 0.047815947402250585: 1, 0.047814931772433317: 1, 0.047814618160446611: 1, 0.047793792881267269: 1, 0.047788990100138914: 1, 0.047783712441111965: 1, 0.047781090374574522: 1, 0.047756498578971206: 1, 0.04775553849535679: 1, 0.047752085365656678: 1, 0.047751808538953111: 1, 0.047743757881156083: 1, 0.047738118645889074: 1, 0.047732253885351329: 1, 0.047727168131317263: 1, 0.047724947821627769: 1, 0.047722579435067511: 1, 0.047717494691649993: 1, 0.047700940648100217: 1, 0.04769708800671639: 1, 0.047693886961721291: 1, 0.047689833603866354: 1, 0.04768695482442345: 1, 0.04767967341742857: 1, 0.047673510816754541: 1, 0.0476717455788883: 1, 0.0476710992464697: 1, 0.047666113105417268: 1, 0.047664839465264106: 1, 0.047649488333973852: 1, 0.047646591143584646: 1, 0.047642825029896571: 1, 0.047639419573777694: 1, 0.047627198282950485: 1, 0.047625470653474986: 1, 0.047621169736136108: 1, 0.047613993013571852: 1, 0.047610135132349081: 1, 0.047599067424017039: 1, 0.047598684971249236: 1, 0.047594116988615522: 1, 0.047582045578191581: 1, 0.047581015736792458: 1, 0.047576881075166555: 1, 0.047571854218712468: 1, 0.047569936436353447: 1, 0.047569210283052651: 1, 0.047564758319019268: 1, 0.047562972428487914: 1, 0.047560145714976278: 1, 0.047558999941766572: 1, 0.047556246413553695: 1, 0.047545689405142345: 1, 0.047543767743380337: 1, 0.047541364045385406: 1, 0.047538850048645741: 1, 0.047527806603549445: 1, 0.047518285656639549: 1, 0.047509856021400822: 1, 0.047509610887587303: 1, 0.047508561192586674: 1, 0.047500222687860902: 1, 0.047496596963025793: 1, 0.047494351805860181: 1, 0.04747945963263446: 1, 0.047472028610199807: 1, 0.047468047482266428: 1, 0.047466500444749475: 1, 0.047464054661668018: 1, 0.047442915360869843: 1, 0.047442446914931567: 1, 0.047436514347718645: 1, 0.047434464293204803: 1, 0.04742582032507725: 1, 0.04742021799133541: 1, 0.047413713965138583: 1, 0.047409606814372805: 1, 0.047401896022808608: 1, 0.047400911314450123: 1, 0.047400592297489878: 1, 0.047398215284961728: 1, 0.04739783041547771: 1, 0.047394040069017991: 1, 0.047373667499724326: 1, 0.047362620010594991: 1, 0.047361952110392236: 1, 0.047353951417683421: 1, 0.047353449969757953: 1, 0.04735172784189428: 1, 0.047347328634802531: 1, 0.047345664963774209: 1, 0.047320154135420178: 1, 0.047320145294192303: 1, 0.047315971461458078: 1, 0.047310780628098459: 1, 0.047309263476327856: 1, 0.04727682266880058: 1, 0.047271604663496024: 1, 0.047271050248349294: 1, 0.047264496127166974: 1, 0.047257406858926543: 1, 0.047253386578647839: 1, 0.04724895298459271: 1, 0.047245617945834102: 1, 0.047243632074433967: 1, 0.047240249581671959: 1, 0.047234120533662959: 1, 0.047233879527107683: 1, 0.047232674101167715: 1, 0.04721999956975801: 1, 0.047215317002357801: 1, 0.047210246991529002: 1, 0.047204373991738428: 1, 0.047204118071518607: 1, 0.047202960888989995: 1, 0.047202337432255034: 1, 0.047185629849164135: 1, 0.047178304301675134: 1, 0.047173940622507689: 1, 0.047168473145071346: 1, 0.047167596709243753: 1, 0.047163110843097773: 1, 0.047148754573316215: 1, 0.047146100710300114: 1, 0.047134805230757783: 1, 0.04713461536576425: 1, 0.047116293454780848: 1, 0.047113427586814041: 1, 0.047113256718927091: 1, 0.047111072880177615: 1, 0.047110962812308067: 1, 0.047107918967350469: 1, 0.047097199141329593: 1, 0.047096353100135768: 1, 0.047093474787473354: 1, 0.047093057766256378: 1, 0.047087604786066453: 1, 0.047071963086548742: 1, 0.047067542313044067: 1, 0.047057832706388428: 1, 0.047041613043662625: 1, 0.047041149111910895: 1, 0.04703841251898859: 1, 0.04702507615851504: 1, 0.047022186361318691: 1, 0.047016175085164036: 1, 0.047014257044272097: 1, 0.047013959765434911: 1, 0.04701233244998404: 1, 0.047011354988592512: 1, 0.047007722589860426: 1, 0.047006660531758622: 1, 0.046995702650236261: 1, 0.046993251438841047: 1, 0.046991564187620266: 1, 0.046984082105266389: 1, 0.046980463804879476: 1, 0.046980071307556215: 1, 0.046972234145101419: 1, 0.046963336261510405: 1, 0.046958978459638909: 1, 0.046956762895384113: 1, 0.046956573611150978: 1, 0.046954391595057467: 1, 0.046952826734760686: 1, 0.046949864043445727: 1, 0.046942259518225581: 1, 0.04693396786623711: 1, 0.046926898534744188: 1, 0.046923688552024737: 1, 0.046923367145113679: 1, 0.046920613457749838: 1, 0.046919640466009736: 1, 0.046916140452448095: 1, 0.046913911111489404: 1, 0.046912671452657755: 1, 0.046912094317064092: 1, 0.046911754461600154: 1, 0.046907414190978491: 1, 0.046895771393312607: 1, 0.046890067718297582: 1, 0.046884135722424572: 1, 0.046881878130855939: 1, 0.046881796858972508: 1, 0.046878258708040153: 1, 0.046876428749339158: 1, 0.046872597220109918: 1, 0.046868519171177569: 1, 0.046866317383726305: 1, 0.046864300290033932: 1, 0.046863717738996724: 1, 0.046861575715202386: 1, 0.046857951216005292: 1, 0.046847948510883461: 1, 0.046844070555913137: 1, 0.046843594806324107: 1, 0.046842771727344787: 1, 0.046837287985061621: 1, 0.046825313227792403: 1, 0.046819356367622432: 1, 0.046817426088223209: 1, 0.046809241510192848: 1, 0.046806454075407698: 1, 0.046806399748491795: 1, 0.046800438860501177: 1, 0.046798727838188628: 1, 0.046798112647852941: 1, 0.046793624711948964: 1, 0.04678838948399873: 1, 0.046785514435300976: 1, 0.046785095999812752: 1, 0.046784490245236197: 1, 0.046781298664729: 1, 0.04677850458919814: 1, 0.04676949471002801: 1, 0.046756982824691012: 1, 0.046750696661403454: 1, 0.046749194686357909: 1, 0.046743568185308254: 1, 0.046736983807599483: 1, 0.046734076436100357: 1, 0.046730593199632894: 1, 0.04673044378716721: 1, 0.04672887266113581: 1, 0.046727175864159226: 1, 0.046713251286953514: 1, 0.04670384328282666: 1, 0.046694877425796859: 1, 0.046694740350461332: 1, 0.046691930920064038: 1, 0.046685839368133281: 1, 0.046684370392397603: 1, 0.046684075297712728: 1, 0.046680465896758276: 1, 0.046680230472301007: 1, 0.046679521447393901: 1, 0.046674379348997388: 1, 0.046669810753203748: 1, 0.046669633327634609: 1, 0.0466674047438599: 1, 0.046662334280565224: 1, 0.046658129298431258: 1, 0.046657110661368767: 1, 0.046653512140327869: 1, 0.046649129297029968: 1, 0.046646680991519876: 1, 0.046635934761536907: 1, 0.046635277057145021: 1, 0.046631170979088317: 1, 0.046626559388844066: 1, 0.046625778985360244: 1, 0.046622458943198691: 1, 0.046613766748373531: 1, 0.046612332380365336: 1, 0.04660955416843849: 1, 0.046603851467932861: 1, 0.046587942254633509: 1, 0.046585332603563401: 1, 0.046571663461623856: 1, 0.046568214893034768: 1, 0.046567624506936613: 1, 0.046563167834854015: 1, 0.046562372426167675: 1, 0.046557151301813204: 1, 0.046549390111741293: 1, 0.046547584910727954: 1, 0.046543743808647502: 1, 0.046531203651908562: 1, 0.04652744106688559: 1, 0.046523480241700242: 1, 0.046522382697354883: 1, 0.046519937169999186: 1, 0.046519598195732821: 1, 0.046518268511950012: 1, 0.046518056434174747: 1, 0.046514125205872933: 1, 0.046508449931874037: 1, 0.046508198367415703: 1, 0.046505529766440561: 1, 0.046504247701651687: 1, 0.046500569641103336: 1, 0.046499744183072567: 1, 0.046495485100614201: 1, 0.046494840731064663: 1, 0.0464915685470478: 1, 0.046489646620213342: 1, 0.046489131666494043: 1, 0.046487035680078302: 1, 0.04647215031920509: 1, 0.046456700568382261: 1, 0.046434301091780837: 1, 0.046430364026070169: 1, 0.046429831016211211: 1, 0.046429465352858662: 1, 0.046425518042848758: 1, 0.046425118279929012: 1, 0.046420482655867311: 1, 0.046415832498786523: 1, 0.046415050980800218: 1, 0.046414274541898719: 1, 0.046413777423329465: 1, 0.046407023012317083: 1, 0.046401247731376632: 1, 0.046395861163381055: 1, 0.04638780604100512: 1, 0.046384043008986305: 1, 0.046381228283551484: 1, 0.046380868691095367: 1, 0.046378879792696767: 1, 0.046378249600775599: 1, 0.046377792423166204: 1, 0.046376869365903246: 1, 0.046374910725280327: 1, 0.046366884116133752: 1, 0.046365615469407977: 1, 0.046362085432414955: 1, 0.046354325723676107: 1, 0.046350393081600022: 1, 0.046349253475357934: 1, 0.046347166763655988: 1, 0.046333311312623339: 1, 0.046328223844154436: 1, 0.046327449408944184: 1, 0.046325194857554076: 1, 0.046317409628806899: 1, 0.046313309551097859: 1, 0.046304712545247852: 1, 0.046303644639280953: 1, 0.046302859518661879: 1, 0.046301467176996326: 1, 0.046282572944835371: 1, 0.046278992129046799: 1, 0.046276028808938399: 1, 0.046266871152211148: 1, 0.046266586374746538: 1, 0.046261088453501381: 1, 0.046257428490064659: 1, 0.046237995806132963: 1, 0.046233214738000253: 1, 0.04623053635942781: 1, 0.046227860703321993: 1, 0.04622300404441447: 1, 0.046220632138339671: 1, 0.046220310342100404: 1, 0.046220058573123605: 1, 0.046210791262843345: 1, 0.04620924257793127: 1, 0.046202733469632148: 1, 0.046202369354939439: 1, 0.046201833288913835: 1, 0.046199145600179375: 1, 0.046199073173549571: 1, 0.0461985744697039: 1, 0.046196059196227324: 1, 0.04617254835751676: 1, 0.04616464005769292: 1, 0.046162766209277319: 1, 0.046159435238112542: 1, 0.046155988525177688: 1, 0.046147162180410567: 1, 0.046144378998306923: 1, 0.046142127917035175: 1, 0.046138543585650733: 1, 0.04612389971270528: 1, 0.046123608376450478: 1, 0.046118664755303615: 1, 0.046115299870153677: 1, 0.046110461563437455: 1, 0.046102421657222684: 1, 0.046100266461149238: 1, 0.046091626470786962: 1, 0.046087416035663013: 1, 0.046081494154988037: 1, 0.046076985159272645: 1, 0.046076407018371068: 1, 0.046076174514122666: 1, 0.046075489121939393: 1, 0.046073730085923664: 1, 0.046067268995253159: 1, 0.046064342174734228: 1, 0.046063698526897352: 1, 0.046062427048047215: 1, 0.046060214782007954: 1, 0.046057365015302006: 1, 0.046047754895649634: 1, 0.046043369278454982: 1, 0.046041432828432878: 1, 0.046038733570365406: 1, 0.046023746684373833: 1, 0.046022528032419463: 1, 0.046019781645565007: 1, 0.046013533581405558: 1, 0.046012525041499261: 1, 0.046007768499039932: 1, 0.045990746829373041: 1, 0.045988561581801722: 1, 0.045976928093192489: 1, 0.045951114778825443: 1, 0.045947411845040857: 1, 0.045946406451056056: 1, 0.045945392869581408: 1, 0.045939521987725843: 1, 0.045932672923039305: 1, 0.045918175286206141: 1, 0.045906347226459476: 1, 0.045901353450823294: 1, 0.045901270874780853: 1, 0.045899606197104412: 1, 0.045896083924468825: 1, 0.045894130151740785: 1, 0.045891205343140153: 1, 0.045874482355268045: 1, 0.045872015165513161: 1, 0.04587166688456544: 1, 0.045870834527266681: 1, 0.045862099109925669: 1, 0.04585846612557283: 1, 0.045856621056437695: 1, 0.0458551511455038: 1, 0.045851443804272508: 1, 0.045843935853927271: 1, 0.045842020702443066: 1, 0.045840749024244176: 1, 0.045828003757095649: 1, 0.045824831614229261: 1, 0.04582406002389406: 1, 0.045822376562807667: 1, 0.045819962881595518: 1, 0.045806820456500377: 1, 0.04579349619389099: 1, 0.045793270419526688: 1, 0.045786766437426754: 1, 0.045783690047582835: 1, 0.045780257730661071: 1, 0.045778657298217229: 1, 0.045760395185107647: 1, 0.045760217048867721: 1, 0.045750215577914685: 1, 0.04574051686794571: 1, 0.045739499274259805: 1, 0.045737850909606061: 1, 0.045735089781329299: 1, 0.045733428660457973: 1, 0.045733062319261004: 1, 0.045727557950876185: 1, 0.045721521341870658: 1, 0.045720992629069611: 1, 0.045714117823180571: 1, 0.045712795364592232: 1, 0.045705446354665599: 1, 0.04567765061411528: 1, 0.04567223532149519: 1, 0.0456664834123192: 1, 0.045665542210110391: 1, 0.045664123661428718: 1, 0.045661844448929935: 1, 0.045657221640191002: 1, 0.045657214684374593: 1, 0.04565600207660149: 1, 0.045646421443294498: 1, 0.045646032705016132: 1, 0.045642689565066431: 1, 0.045640923573239782: 1, 0.045624795781171255: 1, 0.045610632983466161: 1, 0.045604818275650563: 1, 0.045594138215958376: 1, 0.045593664491855278: 1, 0.04558400248116036: 1, 0.045579152979926471: 1, 0.045577193989387206: 1, 0.04557415869684342: 1, 0.045570108461144218: 1, 0.045565972510652031: 1, 0.045539745101080616: 1, 0.045536747098289483: 1, 0.045536212648401089: 1, 0.045532446101576529: 1, 0.045526670059589172: 1, 0.04551357548015366: 1, 0.045511132130201901: 1, 0.045507815037327856: 1, 0.045502374046650099: 1, 0.045496129174040438: 1, 0.045493034066027969: 1, 0.045480354126424156: 1, 0.045476535051768782: 1, 0.045475521489472731: 1, 0.045465179916950274: 1, 0.045464191752773726: 1, 0.045458347506960067: 1, 0.045454514360064466: 1, 0.045445302747199851: 1, 0.045437405213357117: 1, 0.045429873698448267: 1, 0.045420729846336029: 1, 0.0454171662506049: 1, 0.045413185898863832: 1, 0.045411876313558516: 1, 0.045406790881928116: 1, 0.045399595082998075: 1, 0.045398510815389828: 1, 0.045395202053814747: 1, 0.045392237334441865: 1, 0.045383987123766324: 1, 0.045377362387514733: 1, 0.045376778644297303: 1, 0.045374074684683269: 1, 0.045369898588065893: 1, 0.045362672150035241: 1, 0.045360323598135438: 1, 0.045359458616687845: 1, 0.045355629938261886: 1, 0.045352341596366141: 1, 0.045351406741906429: 1, 0.045343427292879726: 1, 0.045340407019974105: 1, 0.045337056843749945: 1, 0.045320253139492089: 1, 0.04531890115755121: 1, 0.045307742319940551: 1, 0.045303495985978409: 1, 0.045301528106039948: 1, 0.045294016668609403: 1, 0.045291479999238132: 1, 0.045285942871365656: 1, 0.04527851822737914: 1, 0.045273111574823645: 1, 0.045271970034465772: 1, 0.045269230425454825: 1, 0.045266694906421025: 1, 0.045261343641152842: 1, 0.04525361825909173: 1, 0.045247851831114509: 1, 0.045247354151289464: 1, 0.045242905226222707: 1, 0.045238981378329705: 1, 0.045238323078372618: 1, 0.045237811710602857: 1, 0.045235793201187008: 1, 0.045230768628717548: 1, 0.045220920540475877: 1, 0.045215935996051525: 1, 0.045204629333074467: 1, 0.045202075289008964: 1, 0.045192179104959526: 1, 0.045190250553026307: 1, 0.045188468262450487: 1, 0.045182836038921877: 1, 0.045182246204701765: 1, 0.045170039173168974: 1, 0.04515682697511348: 1, 0.045151386524398943: 1, 0.045150147143314535: 1, 0.045145365133553224: 1, 0.045145361576164778: 1, 0.045144955857269582: 1, 0.045140896427218399: 1, 0.045138092801459521: 1, 0.045136774310421533: 1, 0.04512783725307979: 1, 0.045123251459664303: 1, 0.04511664052478763: 1, 0.045106202146268856: 1, 0.04510327501901381: 1, 0.045093917582449086: 1, 0.045086264361892711: 1, 0.045084171977097999: 1, 0.045071594134234054: 1, 0.045068435387014397: 1, 0.045060503527433217: 1, 0.045057568242964169: 1, 0.045057081194847408: 1, 0.045043767778154206: 1, 0.045036477376746605: 1, 0.045036066052223586: 1, 0.045028484819374812: 1, 0.045026588679416737: 1, 0.045021089047761031: 1, 0.045013625553534498: 1, 0.045009038215885866: 1, 0.045005673942659412: 1, 0.045000794652790679: 1, 0.044993651265144236: 1, 0.044989655182089652: 1, 0.044985562095338681: 1, 0.044982829537134048: 1, 0.044981355903560005: 1, 0.044973715978209705: 1, 0.044971973875250551: 1, 0.04496951654010279: 1, 0.044964596641604918: 1, 0.044961672997221425: 1, 0.044961198778807304: 1, 0.044953393417977106: 1, 0.044951040039484115: 1, 0.044947796031505796: 1, 0.044940678288808072: 1, 0.044935848205896356: 1, 0.044927845354769645: 1, 0.04491667304574138: 1, 0.044914319124291752: 1, 0.044911775028567295: 1, 0.04490776651583446: 1, 0.044902867155542994: 1, 0.044896663919866235: 1, 0.044893547858282874: 1, 0.044888225631273725: 1, 0.044882188505652329: 1, 0.044877521625802594: 1, 0.044875960500136286: 1, 0.044869072581831343: 1, 0.044868399273414593: 1, 0.044866259099934927: 1, 0.044865938136010239: 1, 0.044864243812635776: 1, 0.044861672110827623: 1, 0.044858294844911002: 1, 0.044855619526726606: 1, 0.044854242506579795: 1, 0.044854072307824941: 1, 0.044845650935353865: 1, 0.044836411542777052: 1, 0.044830723673984545: 1, 0.044825807017317344: 1, 0.044818250436555351: 1, 0.044814384432646549: 1, 0.044805332685016686: 1, 0.044799359972174754: 1, 0.044796885371204291: 1, 0.04478408721291028: 1, 0.044783124004083748: 1, 0.044778740436758876: 1, 0.044773379764646778: 1, 0.04476223927304307: 1, 0.044760729539388346: 1, 0.044755303039955063: 1, 0.044752538923932571: 1, 0.044749953255647207: 1, 0.04474867200721578: 1, 0.044740041249690374: 1, 0.044732895979148694: 1, 0.044726378464955301: 1, 0.04472385062242272: 1, 0.044715264128667817: 1, 0.044713558163164691: 1, 0.044710566305983246: 1, 0.044703436123299599: 1, 0.044698243864243481: 1, 0.044695209906812881: 1, 0.044694404723363917: 1, 0.044691129186048222: 1, 0.044689510561324898: 1, 0.044678748903658833: 1, 0.044676811755671397: 1, 0.044671236550985018: 1, 0.044669436113048903: 1, 0.04466530008632829: 1, 0.044648129996286257: 1, 0.04464787779665489: 1, 0.044644950385823091: 1, 0.044642263754915319: 1, 0.044640884700865552: 1, 0.044639894850992234: 1, 0.044636915455776832: 1, 0.044636326341650177: 1, 0.044629681648697968: 1, 0.044626705729511454: 1, 0.044623111961044667: 1, 0.044622995416051595: 1, 0.044621416222396314: 1, 0.044615623861774936: 1, 0.044610849609771214: 1, 0.044608954385662369: 1, 0.044606180868898837: 1, 0.044604945245722602: 1, 0.044592939176745006: 1, 0.044586854635325364: 1, 0.044586287472017941: 1, 0.044585599634272374: 1, 0.04458460650764165: 1, 0.04458094054549689: 1, 0.044580292058732249: 1, 0.044577471315406056: 1, 0.044577127627085336: 1, 0.044576482463276584: 1, 0.044560096953076445: 1, 0.044549003247487381: 1, 0.044546659689845849: 1, 0.044542775105914936: 1, 0.044519319016078238: 1, 0.044514853822071751: 1, 0.044509347225773259: 1, 0.044496174358478705: 1, 0.044494560203698005: 1, 0.044487429645850458: 1, 0.044485093657223355: 1, 0.044475124088728363: 1, 0.044473308558032811: 1, 0.044469418200069909: 1, 0.044466714659908736: 1, 0.044466177309042565: 1, 0.044457641308380924: 1, 0.044449056005675405: 1, 0.044444832148659921: 1, 0.044439719078933841: 1, 0.044437565144425817: 1, 0.044437532408364101: 1, 0.044429034255624354: 1, 0.044420044832968388: 1, 0.044419943526423505: 1, 0.044406651551826805: 1, 0.044405593809763631: 1, 0.044401257681782928: 1, 0.044395406501023416: 1, 0.044389702040179203: 1, 0.044388905170534801: 1, 0.044388628198447383: 1, 0.044386561812572514: 1, 0.044384106628449535: 1, 0.044380819963142665: 1, 0.044374475504304789: 1, 0.044373884843699397: 1, 0.044372543373643547: 1, 0.044370592951101476: 1, 0.044353598082405646: 1, 0.044339889968429629: 1, 0.044338425343840131: 1, 0.044333355481339765: 1, 0.044325245969901783: 1, 0.04432360500424188: 1, 0.044323541740866335: 1, 0.044321528377200659: 1, 0.044319708885740883: 1, 0.044318775801946035: 1, 0.044314099634585748: 1, 0.044312027886090677: 1, 0.044308112646738777: 1, 0.044305250110750073: 1, 0.044296909014627156: 1, 0.044295061192336074: 1, 0.044294187179887701: 1, 0.044292789376767325: 1, 0.044292431600518226: 1, 0.044283208162311544: 1, 0.044282791228305383: 1, 0.044277196671499479: 1, 0.044269196256658705: 1, 0.044264239273473248: 1, 0.044260026578198497: 1, 0.044257616092439687: 1, 0.044255757359871632: 1, 0.044253113530605827: 1, 0.044242655157150562: 1, 0.044242262478866742: 1, 0.044241707576142292: 1, 0.044240386113482986: 1, 0.044240116772089777: 1, 0.044236997094067004: 1, 0.044233254574911895: 1, 0.044229232768903351: 1, 0.044221374636256777: 1, 0.044210453952113524: 1, 0.044208056909021881: 1, 0.044202634011255959: 1, 0.044186637349393515: 1, 0.044186269018045926: 1, 0.04418451129401646: 1, 0.044173231065098004: 1, 0.044163881218966167: 1, 0.044161853406828197: 1, 0.044159677804402324: 1, 0.044159646410284775: 1, 0.044156852290190687: 1, 0.044143847460065583: 1, 0.044142848783463681: 1, 0.044142563708787726: 1, 0.044140973216445119: 1, 0.044139099680426695: 1, 0.044131860094631145: 1, 0.044131070296407067: 1, 0.044130484129731966: 1, 0.044122979031331069: 1, 0.044101023428017617: 1, 0.044091203942889776: 1, 0.044082227995365431: 1, 0.044074033148595849: 1, 0.044069790827696735: 1, 0.044065131418195617: 1, 0.044062253775245933: 1, 0.044061014064171095: 1, 0.044057961434418744: 1, 0.044057569154382928: 1, 0.044057206787024732: 1, 0.044056706724276487: 1, 0.044056347685183898: 1, 0.044053070372638135: 1, 0.044046112764477542: 1, 0.044045773025772776: 1, 0.044042753406325644: 1, 0.044040142396945196: 1, 0.044035577802945959: 1, 0.044033900950916222: 1, 0.044030831325652948: 1, 0.044026553205119605: 1, 0.044021000300342304: 1, 0.044014187057801447: 1, 0.044009127827472065: 1, 0.044001451297250679: 1, 0.043998024678165208: 1, 0.043994025507388221: 1, 0.043986626630928602: 1, 0.043981179862343719: 1, 0.043961441444125449: 1, 0.04396098475302522: 1, 0.04396043474623109: 1, 0.043952347112404304: 1, 0.043951746461471708: 1, 0.043940599570475761: 1, 0.043940160998352601: 1, 0.04393589070601945: 1, 0.043928361189987816: 1, 0.043927444264130623: 1, 0.043924860961185044: 1, 0.043910807529468597: 1, 0.043907519707898038: 1, 0.043902791884133555: 1, 0.043892033574952818: 1, 0.04388896628701823: 1, 0.043881321306744922: 1, 0.04387353864535519: 1, 0.043864750673351688: 1, 0.043858432642815109: 1, 0.04385508594628687: 1, 0.043854711183374313: 1, 0.043853349397416114: 1, 0.043852868763506379: 1, 0.043850467939061069: 1, 0.043849938896340077: 1, 0.043848951620538784: 1, 0.043847820856714403: 1, 0.043847634212413174: 1, 0.043847567879848157: 1, 0.04383916623435774: 1, 0.043839017310994682: 1, 0.043825334825036963: 1, 0.043819524341531274: 1, 0.043815403006747487: 1, 0.043815355657473971: 1, 0.043807742278007988: 1, 0.043800364583033186: 1, 0.043798995111091796: 1, 0.04378470884598145: 1, 0.043782032764837955: 1, 0.043775016893961315: 1, 0.043773649836644946: 1, 0.043771776580412106: 1, 0.043763066817201997: 1, 0.043762981856512263: 1, 0.043744544310172835: 1, 0.043731618524136324: 1, 0.043730421349264789: 1, 0.043726147174480874: 1, 0.043717844562413413: 1, 0.043713081287147085: 1, 0.043710691679698439: 1, 0.043708971661360195: 1, 0.043705464221567722: 1, 0.043689271488421937: 1, 0.04367272534063539: 1, 0.043671084236249505: 1, 0.043667095459575436: 1, 0.043651112070191948: 1, 0.043648702297357234: 1, 0.043647933563902855: 1, 0.043639384276743839: 1, 0.043639053664102798: 1, 0.043625268175458247: 1, 0.043623376023610258: 1, 0.043620455795054233: 1, 0.043619784905377601: 1, 0.043617765759638778: 1, 0.043599466102902648: 1, 0.043597009704596595: 1, 0.043589786189199412: 1, 0.043584808861003445: 1, 0.043584319330687404: 1, 0.043582751451866714: 1, 0.043578366707688616: 1, 0.04357689825860428: 1, 0.043571181898910925: 1, 0.04356836822717336: 1, 0.043568061753543302: 1, 0.043567284095981464: 1, 0.04356662333638902: 1, 0.043562148663461538: 1, 0.043561173776696542: 1, 0.043560849518524875: 1, 0.043558345788960028: 1, 0.043554947598344426: 1, 0.043547538623662542: 1, 0.043538431070906825: 1, 0.043527557275564698: 1, 0.043526073471792742: 1, 0.043521816381346702: 1, 0.043519637286188337: 1, 0.043514584121238972: 1, 0.043510652881975052: 1, 0.043508816885563809: 1, 0.043500880971416071: 1, 0.043500440784679129: 1, 0.043497084698479668: 1, 0.043495454292444356: 1, 0.04348949167162755: 1, 0.043483278949542709: 1, 0.043475760789256961: 1, 0.043469920213911807: 1, 0.043468426803201926: 1, 0.04346530016607697: 1, 0.043458874317421528: 1, 0.043455707795316108: 1, 0.043455259136477097: 1, 0.043451480327280446: 1, 0.043447995192270175: 1, 0.04344562135447743: 1, 0.043442449434974273: 1, 0.043438177758057042: 1, 0.043423336620911072: 1, 0.043415618586880061: 1, 0.043413005924457113: 1, 0.043411555536911187: 1, 0.043407323860091711: 1, 0.043403561527317454: 1, 0.043402703533484847: 1, 0.043402241591298955: 1, 0.043394461207607773: 1, 0.043390496782136467: 1, 0.043389456820666708: 1, 0.043378985435829555: 1, 0.043371479222420795: 1, 0.043368517163009615: 1, 0.043367532196401652: 1, 0.043360191442601656: 1, 0.043355713246596234: 1, 0.043355507664118532: 1, 0.04335504484654449: 1, 0.043348625029158039: 1, 0.043341301045760963: 1, 0.04333692944256673: 1, 0.043336548377111345: 1, 0.043333473978226927: 1, 0.043332926707175201: 1, 0.043332746995099758: 1, 0.043331673562310651: 1, 0.043324772130643674: 1, 0.043319569527906783: 1, 0.043318370013925744: 1, 0.043311908584316029: 1, 0.043300531414684269: 1, 0.043299541773889567: 1, 0.043295425735890403: 1, 0.043277209397689913: 1, 0.043276923665296299: 1, 0.043275971009703401: 1, 0.043274212822104738: 1, 0.043271948356432985: 1, 0.043270672007385713: 1, 0.04325867663287393: 1, 0.043255634676510557: 1, 0.043249425117328488: 1, 0.04323748084383524: 1, 0.043237069687897312: 1, 0.043236017261492427: 1, 0.043231463799897056: 1, 0.04321893924047808: 1, 0.043209649847466315: 1, 0.043203033664568236: 1, 0.043201609390057266: 1, 0.043198982443363509: 1, 0.043193281070613362: 1, 0.043190796612047042: 1, 0.043189146502986574: 1, 0.043185170400359088: 1, 0.043184299805297102: 1, 0.04316948482212557: 1, 0.043165542810537229: 1, 0.043159793730482628: 1, 0.043158356935843072: 1, 0.043158044976502385: 1, 0.043157223953054762: 1, 0.04314141673078898: 1, 0.043141000189815003: 1, 0.043139314600741961: 1, 0.043138040091334047: 1, 0.043136806321842455: 1, 0.043132462042054523: 1, 0.043131896822762861: 1, 0.043130826141885029: 1, 0.04312273439017196: 1, 0.043121276068184174: 1, 0.04311233316189228: 1, 0.043109050646419608: 1, 0.043106711064017034: 1, 0.043103511550429061: 1, 0.043098651631120317: 1, 0.043087207943258932: 1, 0.043080931295616083: 1, 0.043076854672138863: 1, 0.043076233438195159: 1, 0.043074838963771886: 1, 0.043074418851717214: 1, 0.043072146000613681: 1, 0.043069353507117679: 1, 0.043067251214604335: 1, 0.043066856994242717: 1, 0.043063755188500058: 1, 0.043041056868191679: 1, 0.043036862551895982: 1, 0.043030652773139104: 1, 0.043021335611829678: 1, 0.043020226393681568: 1, 0.043018998603385365: 1, 0.04301852508073075: 1, 0.043016230539394205: 1, 0.043010428199535947: 1, 0.043001117253461292: 1, 0.042991172190321149: 1, 0.042989218269575524: 1, 0.042987167912209606: 1, 0.04297389331949994: 1, 0.042973448620800742: 1, 0.042967784967578103: 1, 0.042965796622302599: 1, 0.042962007183928126: 1, 0.042955904773573833: 1, 0.042950303620647161: 1, 0.042949896128196954: 1, 0.0429494562978531: 1, 0.042949199556022485: 1, 0.042947330422630083: 1, 0.042943405611118098: 1, 0.042938854970792029: 1, 0.04293552743437893: 1, 0.042932711700409076: 1, 0.042932428484353677: 1, 0.042929964902581247: 1, 0.042926580505203461: 1, 0.042919081555909469: 1, 0.042914804260288195: 1, 0.042904522270821095: 1, 0.042900867827660304: 1, 0.042892564941457469: 1, 0.042890075235503936: 1, 0.042889598265793777: 1, 0.042889211463053835: 1, 0.042888850509451945: 1, 0.042887401703698966: 1, 0.042887155373630283: 1, 0.042880682018236124: 1, 0.042880660129137854: 1, 0.042874791971104567: 1, 0.042871534932149007: 1, 0.042871294095055967: 1, 0.042860135752436183: 1, 0.042858604559957166: 1, 0.042855560721639381: 1, 0.042854817321753981: 1, 0.042846942512287815: 1, 0.042842886006616288: 1, 0.042836445606028978: 1, 0.04283597583102397: 1, 0.042833270445279126: 1, 0.042832846916957372: 1, 0.0428318653778662: 1, 0.042828980035670421: 1, 0.04282664097838651: 1, 0.042825611353640589: 1, 0.04282067277481244: 1, 0.042818184436116506: 1, 0.042808816222059093: 1, 0.042808060245936433: 1, 0.042804008824324571: 1, 0.042792806242278734: 1, 0.042791803837087868: 1, 0.042789799814079141: 1, 0.042789703110684155: 1, 0.042785012352987692: 1, 0.042771987861656487: 1, 0.042771700896094882: 1, 0.042769968452065266: 1, 0.042745566748998515: 1, 0.042739697386113662: 1, 0.042729765688726246: 1, 0.042726170048685091: 1, 0.042723855028404881: 1, 0.042713578555604599: 1, 0.042712517212291558: 1, 0.042712280912212054: 1, 0.042705351934664022: 1, 0.04270356941365467: 1, 0.042702588334601735: 1, 0.042700238984539396: 1, 0.042699109328761392: 1, 0.042695412793073789: 1, 0.042695150621556648: 1, 0.042694002412112346: 1, 0.042693177641863311: 1, 0.042681147570513736: 1, 0.042679285728052373: 1, 0.042674302849861276: 1, 0.042670377325722132: 1, 0.042664297152605536: 1, 0.042656911344866766: 1, 0.042636655229003464: 1, 0.042631765172976163: 1, 0.042627359397842408: 1, 0.042606833859241522: 1, 0.042597765641631681: 1, 0.042596083395844246: 1, 0.042591416645681029: 1, 0.042589733436908604: 1, 0.042586825830386366: 1, 0.042586181602740164: 1, 0.042585226726148687: 1, 0.04257830875188548: 1, 0.042575399593690777: 1, 0.04256998152789436: 1, 0.042563875087281558: 1, 0.04256353917979501: 1, 0.042556661823313427: 1, 0.042551914548381718: 1, 0.042549959841449658: 1, 0.042544796086683462: 1, 0.042543400324139544: 1, 0.042530622508372598: 1, 0.042519063573914481: 1, 0.042518776699889162: 1, 0.042517767319653663: 1, 0.042505793639740233: 1, 0.042502099001302911: 1, 0.042500063718824789: 1, 0.042497418472350418: 1, 0.042489711443556941: 1, 0.042487072188617844: 1, 0.042486828290231572: 1, 0.042465887751194135: 1, 0.042445309835611511: 1, 0.04244130461813822: 1, 0.042432456097526876: 1, 0.042422221924019926: 1, 0.042409580476398208: 1, 0.042409476396789721: 1, 0.042404469328925561: 1, 0.042403321169943761: 1, 0.042402379285826429: 1, 0.04240034842609796: 1, 0.04239218918554713: 1, 0.042391379434308492: 1, 0.042390636546784544: 1, 0.042385227872133377: 1, 0.042380007323332067: 1, 0.042376537943826918: 1, 0.042375603773867065: 1, 0.042366114284444513: 1, 0.042363372681791141: 1, 0.04235919597686888: 1, 0.042358153135997785: 1, 0.042354196665157051: 1, 0.042352937368458729: 1, 0.042345652361830306: 1, 0.042344064230650895: 1, 0.042339976142351993: 1, 0.042339904479512559: 1, 0.042338008299018438: 1, 0.042336480676028534: 1, 0.04233179307034568: 1, 0.04232976268711626: 1, 0.042310395138788315: 1, 0.042305197521905355: 1, 0.042301086686170927: 1, 0.042291291655625576: 1, 0.042285187650299094: 1, 0.042278917710307937: 1, 0.042276039854974232: 1, 0.042273398974217745: 1, 0.042263696276982551: 1, 0.042262695222861801: 1, 0.042262024432469528: 1, 0.04224462501257515: 1, 0.042243029740914151: 1, 0.042236554388380934: 1, 0.042231752029110385: 1, 0.042231492242724489: 1, 0.042220064337765657: 1, 0.042216590959045099: 1, 0.042206654974511072: 1, 0.042206372530941685: 1, 0.042205184021819935: 1, 0.042203809509718332: 1, 0.04219415005590272: 1, 0.042193649935465136: 1, 0.042193229303325676: 1, 0.042190934088281701: 1, 0.042176382852104725: 1, 0.04217180756904719: 1, 0.042168978121634573: 1, 0.042150143309566943: 1, 0.042145268422250089: 1, 0.042138757323864982: 1, 0.042130147632341679: 1, 0.042123917826348271: 1, 0.042115805686579112: 1, 0.042115056548537463: 1, 0.042109499928450665: 1, 0.04210558676000211: 1, 0.042100789380356038: 1, 0.042090445706076625: 1, 0.042087572566799056: 1, 0.042079305488237642: 1, 0.042078015617682228: 1, 0.04207739300230999: 1, 0.042071483887734532: 1, 0.042070131503330707: 1, 0.042068860148169671: 1, 0.042063676447179281: 1, 0.042061804613297116: 1, 0.042058741692006803: 1, 0.042057912444736618: 1, 0.042049991039070173: 1, 0.042048091948719335: 1, 0.042037350693162299: 1, 0.042036174213861327: 1, 0.04203213385600741: 1, 0.042030351218689338: 1, 0.042027414025664428: 1, 0.042019532306241163: 1, 0.042016996237799413: 1, 0.042015126276174618: 1, 0.042012803948426561: 1, 0.042011667705164901: 1, 0.042011028404689905: 1, 0.042005914087113669: 1, 0.042004436166926201: 1, 0.042004087177118871: 1, 0.042003736473613183: 1, 0.042003050376500935: 1, 0.041989122680975668: 1, 0.041987740547357141: 1, 0.041978540481737693: 1, 0.041966307353520853: 1, 0.041964269119936462: 1, 0.041960027350602336: 1, 0.041949364387592891: 1, 0.041945472260378591: 1, 0.041930404995945553: 1, 0.041920327770023247: 1, 0.041919033507456092: 1, 0.041913628129719591: 1, 0.041907711801919038: 1, 0.041905539561398801: 1, 0.04189137160279429: 1, 0.041887583744599416: 1, 0.041886916351429923: 1, 0.041883926201961574: 1, 0.041883024638802752: 1, 0.041882614850765915: 1, 0.041874992215936373: 1, 0.041867814282910025: 1, 0.041864115812936878: 1, 0.041846976667784856: 1, 0.041846893090006373: 1, 0.041846378946921517: 1, 0.041844428673448668: 1, 0.04184388049129055: 1, 0.041836952060098367: 1, 0.041833980004127004: 1, 0.041832415617462322: 1, 0.041831332031536911: 1, 0.041828122986168711: 1, 0.041823996683703742: 1, 0.041809616145747179: 1, 0.04180302127512011: 1, 0.041798133094543: 1, 0.041793887193678367: 1, 0.04178475802678501: 1, 0.041777635665702008: 1, 0.041772234214321038: 1, 0.041758000475049233: 1, 0.041743899968835776: 1, 0.041742926835160427: 1, 0.04172867162056447: 1, 0.041719159138454538: 1, 0.041710723108402181: 1, 0.041708891587247665: 1, 0.041702338393620926: 1, 0.041701670859533531: 1, 0.041699623381421108: 1, 0.041698242315630067: 1, 0.041685344733367054: 1, 0.041682790765686581: 1, 0.041678133965490638: 1, 0.041671636334600574: 1, 0.041671586012828672: 1, 0.041671292146960831: 1, 0.041664057705605842: 1, 0.041660163257763005: 1, 0.041658150892000562: 1, 0.041654867109025537: 1, 0.041640350716668183: 1, 0.041635040855340109: 1, 0.041634082664200128: 1, 0.041632365945564194: 1, 0.041632260441484929: 1, 0.041627362118524372: 1, 0.04162638731101221: 1, 0.041624181887159148: 1, 0.041616329892249775: 1, 0.0416161278412185: 1, 0.041615866104241554: 1, 0.041608440361453634: 1, 0.041606654660463663: 1, 0.041602521937818229: 1, 0.04159558603326563: 1, 0.041590766778541406: 1, 0.041579679595659412: 1, 0.041578921900353505: 1, 0.041571915393449371: 1, 0.041566102159228339: 1, 0.041560050877780003: 1, 0.041549956349640864: 1, 0.041545394483466086: 1, 0.041542300131551392: 1, 0.041540955967368565: 1, 0.041538115001005078: 1, 0.041505865300823216: 1, 0.0414986001857768: 1, 0.041494833893297479: 1, 0.041492317909481401: 1, 0.041482453258689482: 1, 0.041478007045381377: 1, 0.041475668474272462: 1, 0.04147513974038234: 1, 0.041464610968110452: 1, 0.041463184874689668: 1, 0.041462747949140163: 1, 0.041462590082457292: 1, 0.041461818030996522: 1, 0.04145939118760994: 1, 0.041459326929610199: 1, 0.041457894536593112: 1, 0.041449860707619079: 1, 0.041449214496896557: 1, 0.041444071104482685: 1, 0.04143205440042369: 1, 0.041424268285913342: 1, 0.041421129414378172: 1, 0.041414471754509782: 1, 0.041403348381017197: 1, 0.041401478487962377: 1, 0.041398848262591451: 1, 0.04139841893055124: 1, 0.041397313395011917: 1, 0.041387694804098332: 1, 0.041384609843328535: 1, 0.041383318635674418: 1, 0.04137619175192539: 1, 0.04137088734642265: 1, 0.041369336953218525: 1, 0.041356167667352436: 1, 0.041348720032769876: 1, 0.041344125334656909: 1, 0.041341593042187361: 1, 0.041341531984565159: 1, 0.041339711031809181: 1, 0.041334441717364404: 1, 0.04133131086003753: 1, 0.04132228604448554: 1, 0.041321340932161561: 1, 0.041317105633669221: 1, 0.041309522424424108: 1, 0.041308926531294726: 1, 0.041307502875479504: 1, 0.041303079924935489: 1, 0.041302683546329044: 1, 0.04129528051799753: 1, 0.041293497474224922: 1, 0.041290645946990959: 1, 0.041287954143433774: 1, 0.041280556812362361: 1, 0.041277325037353985: 1, 0.041267028391478083: 1, 0.041258180798662732: 1, 0.041252652392726366: 1, 0.041246371142148311: 1, 0.041243507840404064: 1, 0.041242827006414205: 1, 0.041237933471066579: 1, 0.041235662105519044: 1, 0.041233967593861477: 1, 0.041222713311714607: 1, 0.04121430486453339: 1, 0.041213142482767903: 1, 0.041209932911664693: 1, 0.041209717116911918: 1, 0.041196577943638277: 1, 0.041195498553984161: 1, 0.041194189487644396: 1, 0.041191993870603051: 1, 0.041185692213913834: 1, 0.041183473882691182: 1, 0.041181587007721746: 1, 0.041179630215217082: 1, 0.04116284382529823: 1, 0.041161946446287047: 1, 0.041154824472591403: 1, 0.041138405020899417: 1, 0.041134929785527963: 1, 0.041132479789755858: 1, 0.041126043944530691: 1, 0.041110105442176449: 1, 0.04110936938910778: 1, 0.041108468903668205: 1, 0.041103289133713125: 1, 0.04109803531002925: 1, 0.041081493965892099: 1, 0.041080176228479814: 1, 0.041079860415165578: 1, 0.041079733683770006: 1, 0.041072801458295796: 1, 0.041072074855507949: 1, 0.041063155417997321: 1, 0.041062551580662958: 1, 0.041057567652779216: 1, 0.041052987031860645: 1, 0.041041346789097308: 1, 0.041021984050298242: 1, 0.041021552390098089: 1, 0.041015132810910723: 1, 0.041013207324405908: 1, 0.041011734204472169: 1, 0.041009926750759235: 1, 0.041006716755250583: 1, 0.041001581685530551: 1, 0.040993326403458923: 1, 0.040988717040823519: 1, 0.040987621294770842: 1, 0.040986006936343987: 1, 0.040983853867411976: 1, 0.040981294947770176: 1, 0.040976202288025169: 1, 0.040964256188080542: 1, 0.040962598553252683: 1, 0.040961029301263788: 1, 0.040956951176485901: 1, 0.040956741292306975: 1, 0.040956392589859197: 1, 0.040941407076452357: 1, 0.040940767026262287: 1, 0.040934727163608804: 1, 0.040928685818095549: 1, 0.040925109773656466: 1, 0.040914088662352979: 1, 0.040902657650097839: 1, 0.040892945418741521: 1, 0.040892937223318424: 1, 0.040890583216245155: 1, 0.040881421087340476: 1, 0.040875003479826755: 1, 0.04087270339565964: 1, 0.040868917452732509: 1, 0.040868003484023072: 1, 0.040855550458785424: 1, 0.040853738973027971: 1, 0.040853553606558964: 1, 0.040853225874678795: 1, 0.040853103143003576: 1, 0.040852455776315764: 1, 0.040851646662120523: 1, 0.040846672281066858: 1, 0.040842319512320119: 1, 0.040841810138430579: 1, 0.040841253328770942: 1, 0.040839462336299197: 1, 0.040838869258676226: 1, 0.040829558575446602: 1, 0.04082443072725879: 1, 0.040824256472592767: 1, 0.040816015870403073: 1, 0.040802953028916004: 1, 0.040796393389786897: 1, 0.040782612473644737: 1, 0.040766687374840432: 1, 0.040763878455539471: 1, 0.04076275488415123: 1, 0.040762324215273676: 1, 0.040761169398766728: 1, 0.040759853266490377: 1, 0.040759812675901251: 1, 0.0407585441954499: 1, 0.040757723163369813: 1, 0.040751078628535962: 1, 0.040750870660885646: 1, 0.040735407746181874: 1, 0.04073081733899496: 1, 0.040726823807047681: 1, 0.040726133916783425: 1, 0.040725380739551585: 1, 0.04072446648394458: 1, 0.040711510978581264: 1, 0.040707149285491906: 1, 0.040706112387072918: 1, 0.040697581393899229: 1, 0.040697168108187569: 1, 0.040694035060409514: 1, 0.040688200778343453: 1, 0.040687778296525944: 1, 0.040686543383891709: 1, 0.04068622308435358: 1, 0.040682279475188148: 1, 0.040680113469363503: 1, 0.040675103198481416: 1, 0.040675066388525048: 1, 0.040670199898686948: 1, 0.040665402236527315: 1, 0.040661022237839767: 1, 0.040648688034304763: 1, 0.040643019795112333: 1, 0.040639526946872971: 1, 0.040639485631415298: 1, 0.040631929798977895: 1, 0.040625799877504969: 1, 0.040624190537354589: 1, 0.040613771070135057: 1, 0.04061324920935587: 1, 0.040612957921191253: 1, 0.040612658930442413: 1, 0.040611346203999164: 1, 0.040604550907894152: 1, 0.040604095294440215: 1, 0.040589255210758651: 1, 0.040588260818192896: 1, 0.040582669106872256: 1, 0.0405663024290518: 1, 0.040564967081834817: 1, 0.040564733576158418: 1, 0.040556231943088675: 1, 0.040555377211925994: 1, 0.040553522602812343: 1, 0.040548220036383094: 1, 0.040545196031452027: 1, 0.040533404364552647: 1, 0.040531329160218309: 1, 0.040527679842410805: 1, 0.040521885490067452: 1, 0.040517975683671874: 1, 0.040514298440865633: 1, 0.040505032105595473: 1, 0.040504807905804012: 1, 0.040499490284681472: 1, 0.040495243249996808: 1, 0.04049177252088744: 1, 0.04049160421268206: 1, 0.040489393986523563: 1, 0.040487359401087671: 1, 0.04047653517038946: 1, 0.040474188191333964: 1, 0.040471887187480286: 1, 0.040458911711380358: 1, 0.040452751058631928: 1, 0.040444290938945249: 1, 0.040443037648389711: 1, 0.040441058343690856: 1, 0.040437204259604329: 1, 0.040435410536813696: 1, 0.040427823661304381: 1, 0.040427522260145191: 1, 0.040413769402948184: 1, 0.040411057138805773: 1, 0.04040795077433422: 1, 0.040396341197036306: 1, 0.040393678765273944: 1, 0.040390361510126233: 1, 0.040385003591070598: 1, 0.040384969377516018: 1, 0.040381278734567497: 1, 0.040374165454170156: 1, 0.040371488072024474: 1, 0.040366389473330766: 1, 0.04036373431669657: 1, 0.040361933161599167: 1, 0.040361338116615367: 1, 0.040360646210338531: 1, 0.040356435965165222: 1, 0.040346726131142749: 1, 0.040343789002150396: 1, 0.040343385173689961: 1, 0.040338059745584513: 1, 0.040327309493200791: 1, 0.040324485891453613: 1, 0.04032277252866269: 1, 0.040315582720390632: 1, 0.040314925416409214: 1, 0.040308443915320118: 1, 0.040301435384681131: 1, 0.04030076345635944: 1, 0.040298383366902529: 1, 0.040296833004606868: 1, 0.040296221639096061: 1, 0.040292124964174156: 1, 0.040290829576627628: 1, 0.040290083701724169: 1, 0.040273142766446363: 1, 0.040272745152776526: 1, 0.040271448273949143: 1, 0.04027093701532683: 1, 0.04026085457462239: 1, 0.040249827884703125: 1, 0.040247940728256507: 1, 0.040245092972846758: 1, 0.040242421095245534: 1, 0.040235415558050339: 1, 0.040233358323337437: 1, 0.040231318827568634: 1, 0.04022884294836044: 1, 0.040224288238084341: 1, 0.040223730017544319: 1, 0.040218056342646663: 1, 0.040216511903754089: 1, 0.040207494301838349: 1, 0.040207420781601062: 1, 0.040206026707079338: 1, 0.040193364129044111: 1, 0.040180300210280663: 1, 0.040176798229553987: 1, 0.040172832142507726: 1, 0.040172020759798886: 1, 0.040162617062087923: 1, 0.040162137796941402: 1, 0.040162017941701614: 1, 0.040153511514229426: 1, 0.04015215924885486: 1, 0.040150448180460444: 1, 0.040147087794118609: 1, 0.040140123838689278: 1, 0.040138267872024201: 1, 0.040133388922269385: 1, 0.040132643056984094: 1, 0.040118150707964068: 1, 0.040107966765492747: 1, 0.040097918796281162: 1, 0.040093520943660275: 1, 0.040087814698456528: 1, 0.040087743674478184: 1, 0.040085437014984501: 1, 0.040079242785203417: 1, 0.040078147719157908: 1, 0.040075746546498779: 1, 0.040066409090902727: 1, 0.040061845201958435: 1, 0.04006155960575606: 1, 0.040060484999474566: 1, 0.040060326305941321: 1, 0.04005935498245377: 1, 0.040057746796679214: 1, 0.04005750306847157: 1, 0.040050546505708884: 1, 0.040049952928504912: 1, 0.040048378109568142: 1, 0.040041851261831983: 1, 0.040037679248735698: 1, 0.040031515830224192: 1, 0.0400307664599844: 1, 0.040026536602016882: 1, 0.040021759549259864: 1, 0.040010757675274226: 1, 0.040001990255738591: 1, 0.039995511992918148: 1, 0.039995490366464312: 1, 0.039992849604792775: 1, 0.039985889261435946: 1, 0.039982930171327605: 1, 0.039970113704068139: 1, 0.039969457560502429: 1, 0.039968199472577473: 1, 0.039963483711436022: 1, 0.03996275305139859: 1, 0.039959602355816387: 1, 0.039957858276731595: 1, 0.039955898908952264: 1, 0.039954560460807025: 1, 0.039948279184410282: 1, 0.039944877640853665: 1, 0.039939173699716168: 1, 0.039933656151209772: 1, 0.039933551560046562: 1, 0.039920057760966167: 1, 0.039916067401252808: 1, 0.039915056627117029: 1, 0.039909464706766637: 1, 0.039907587323073791: 1, 0.039907582564320768: 1, 0.039905911160654228: 1, 0.039902762929688737: 1, 0.039902006410083464: 1, 0.03989862408472232: 1, 0.03989333905261315: 1, 0.039892586218951476: 1, 0.039890272157255963: 1, 0.039876488930146947: 1, 0.039873269558395111: 1, 0.039869729987726622: 1, 0.039868443092935579: 1, 0.039863913850157993: 1, 0.039863118057243886: 1, 0.039862418998161842: 1, 0.039856326962623881: 1, 0.039855902729246162: 1, 0.039853706462999731: 1, 0.039849596381424227: 1, 0.039849581679097544: 1, 0.039847498021864429: 1, 0.039846585932282089: 1, 0.039844835748378091: 1, 0.039844083783197128: 1, 0.039843047377643249: 1, 0.039841080039100293: 1, 0.039832527328939507: 1, 0.039828105627874935: 1, 0.039828013194702347: 1, 0.039819852967024935: 1, 0.039819277425029352: 1, 0.039815524426092479: 1, 0.039799753756090517: 1, 0.039794989564745045: 1, 0.039794903120343304: 1, 0.039785343420023114: 1, 0.039784150332659099: 1, 0.039780534945904389: 1, 0.039779573192914863: 1, 0.039776538078899332: 1, 0.039768655599605185: 1, 0.03975281294841012: 1, 0.039746012728410343: 1, 0.039744131901214556: 1, 0.039742364643167181: 1, 0.039739493591662803: 1, 0.039735415659152007: 1, 0.039733844654008747: 1, 0.039731043109515765: 1, 0.039730289844862439: 1, 0.03972983489694152: 1, 0.039720457577185501: 1, 0.039719887162177663: 1, 0.039717874693455758: 1, 0.03971213952139814: 1, 0.039711477715497559: 1, 0.039711453072055911: 1, 0.039705948922433523: 1, 0.039705225231907934: 1, 0.039692642115626335: 1, 0.039688271311816951: 1, 0.039676441273278663: 1, 0.039675502076232334: 1, 0.039671850554086618: 1, 0.03967078710861309: 1, 0.039669212222137151: 1, 0.039659736683816366: 1, 0.0396457935815294: 1, 0.039637649897980208: 1, 0.039637336498305989: 1, 0.039633320551581593: 1, 0.039629381240371478: 1, 0.039624805793939531: 1, 0.039621859822806069: 1, 0.039621409723398011: 1, 0.039613271031879088: 1, 0.039612903257009641: 1, 0.039612224431211318: 1, 0.039612087072225854: 1, 0.039610264161577688: 1, 0.039610238267494095: 1, 0.03960997416869335: 1, 0.039597859467663053: 1, 0.039595454445303997: 1, 0.03959489007835381: 1, 0.039593502628553608: 1, 0.039583866203845137: 1, 0.039582124160445327: 1, 0.039580747506416061: 1, 0.03957896815516198: 1, 0.039577332697977551: 1, 0.039577303690996921: 1, 0.039575920781108137: 1, 0.039575227624756577: 1, 0.039572845930521842: 1, 0.039572358800642964: 1, 0.039568856845109773: 1, 0.039565904307977233: 1, 0.039563417789740936: 1, 0.039562751144732851: 1, 0.039559223284802443: 1, 0.039558655360768684: 1, 0.039558531080494133: 1, 0.039556615930957988: 1, 0.039554360630396038: 1, 0.03955352242621684: 1, 0.039548149775513644: 1, 0.039542510275683534: 1, 0.03953689291922402: 1, 0.039533074481873202: 1, 0.039532346819117541: 1, 0.039527223342347442: 1, 0.039525812470379493: 1, 0.039523489697420235: 1, 0.039517565695530055: 1, 0.039517025048379992: 1, 0.039516805932471755: 1, 0.039516092356205547: 1, 0.039512609984389546: 1, 0.039511849176729702: 1, 0.03950779985753488: 1, 0.039506861342692774: 1, 0.039505985219802947: 1, 0.039501990402660531: 1, 0.039501942364452487: 1, 0.039497252924649187: 1, 0.039485404485932379: 1, 0.039480298226447511: 1, 0.039460646385010928: 1, 0.039452929784568089: 1, 0.039448454213658925: 1, 0.039443498356719182: 1, 0.039439995471600639: 1, 0.03943995794733697: 1, 0.039429592275048324: 1, 0.039426015751328709: 1, 0.039421520336035562: 1, 0.0394208931059149: 1, 0.039408016696645759: 1, 0.039407230141343383: 1, 0.039406016692185804: 1, 0.039400926620779819: 1, 0.039399576734324426: 1, 0.039386728110220745: 1, 0.039379133764299822: 1, 0.039369342216745776: 1, 0.039369138505886719: 1, 0.039364502902957794: 1, 0.039359535562947301: 1, 0.039357952113554556: 1, 0.039356762397043145: 1, 0.039339497020917047: 1, 0.039338737237072048: 1, 0.039337350180943496: 1, 0.039335368754232027: 1, 0.039329130119101448: 1, 0.039328745975869613: 1, 0.039327607053248198: 1, 0.039322621014705808: 1, 0.039321947514039071: 1, 0.039318132875652702: 1, 0.039312664227745361: 1, 0.039310352818240822: 1, 0.039306802477451427: 1, 0.039306272169338088: 1, 0.0393038743615046: 1, 0.039300688902840067: 1, 0.039299246929187487: 1, 0.039298127013311368: 1, 0.039297654373985115: 1, 0.039287737681534721: 1, 0.039286746326777061: 1, 0.039275329042018498: 1, 0.039273141060074186: 1, 0.039270749665323207: 1, 0.039268647260473931: 1, 0.039253805680070593: 1, 0.03925117928445495: 1, 0.03924991755253391: 1, 0.039244918364516226: 1, 0.039237350860629301: 1, 0.039234684615235958: 1, 0.039234510678590004: 1, 0.039221818422795471: 1, 0.039220302754803857: 1, 0.039214179136978944: 1, 0.039214022656743661: 1, 0.039213491735656317: 1, 0.03920407759355183: 1, 0.039203085904643553: 1, 0.039202646610127609: 1, 0.039200505302731031: 1, 0.03919620646294452: 1, 0.039187498483569672: 1, 0.039187123992837213: 1, 0.039178386907568689: 1, 0.039172250147379004: 1, 0.039171478673652775: 1, 0.039168259677331195: 1, 0.039162821028237392: 1, 0.039160957841517102: 1, 0.039156245199969221: 1, 0.039156055542548397: 1, 0.039154987164028737: 1, 0.039153309953275921: 1, 0.039149494803487492: 1, 0.039135188028483606: 1, 0.039131358747644666: 1, 0.039129834831675848: 1, 0.039128705900926174: 1, 0.039128353362160591: 1, 0.039121242470879052: 1, 0.039120338004837336: 1, 0.03911408492650733: 1, 0.039110582464895183: 1, 0.039108394212038711: 1, 0.039106923797276767: 1, 0.039104658871104848: 1, 0.039095859378539544: 1, 0.039089468535114164: 1, 0.039077803228123612: 1, 0.039077377035774769: 1, 0.039071159059269014: 1, 0.039071028216125812: 1, 0.039060484449172234: 1, 0.039050401035566978: 1, 0.039049048294461555: 1, 0.039039669994910049: 1, 0.039033341252689847: 1, 0.039026280178084745: 1, 0.039025836847836372: 1, 0.039016808169737689: 1, 0.039010063732595773: 1, 0.039009798239139117: 1, 0.038995394793118442: 1, 0.03899359005095053: 1, 0.038989803926335651: 1, 0.038988582026115458: 1, 0.03898696513069886: 1, 0.038984474139195043: 1, 0.038983396531776335: 1, 0.038980782192624595: 1, 0.038973163620658363: 1, 0.038971839407910144: 1, 0.038967905679797826: 1, 0.038964802029736088: 1, 0.038957449410054357: 1, 0.038952866630485007: 1, 0.038950438380675918: 1, 0.038950032328098211: 1, 0.038946152403556665: 1, 0.038945435422186397: 1, 0.038944578230530193: 1, 0.038944107641799043: 1, 0.03893661634326976: 1, 0.038934174332616547: 1, 0.038933327282849116: 1, 0.038931921619729679: 1, 0.038923651647478873: 1, 0.038920262853287771: 1, 0.03891969978592253: 1, 0.038911592664425822: 1, 0.038909310396515441: 1, 0.038902818665811446: 1, 0.038902269688000736: 1, 0.038901405709014861: 1, 0.038899967801447152: 1, 0.038889405461044704: 1, 0.038887007902287538: 1, 0.038885975893766002: 1, 0.038885831356608003: 1, 0.038876902686475756: 1, 0.038876397527276417: 1, 0.038873642083571254: 1, 0.038871555309579191: 1, 0.038867898320585979: 1, 0.038857566761350618: 1, 0.038857275095775183: 1, 0.038856245802720513: 1, 0.038845671538009184: 1, 0.038843697798021937: 1, 0.038835095054568343: 1, 0.038830394059478211: 1, 0.038824662029719306: 1, 0.038813055730243781: 1, 0.038808277029411385: 1, 0.03880143859305335: 1, 0.0387886052182271: 1, 0.038782640179495433: 1, 0.038776782681976804: 1, 0.038773503127403061: 1, 0.038771651389050837: 1, 0.03876888504102359: 1, 0.038768860806212252: 1, 0.03876556320621679: 1, 0.038756900469017183: 1, 0.038749181088523023: 1, 0.038749074759565086: 1, 0.038746115780177053: 1, 0.038743656768443449: 1, 0.03874174458111803: 1, 0.038736423487033725: 1, 0.038734910727041369: 1, 0.038726482897733061: 1, 0.038726467566715425: 1, 0.038724021397810567: 1, 0.038722131793873488: 1, 0.038717860169933754: 1, 0.03871177778212459: 1, 0.038711238409860335: 1, 0.038709579370412195: 1, 0.038707286111642925: 1, 0.038702659598425615: 1, 0.03869836111510374: 1, 0.038682033784264443: 1, 0.038676800170256931: 1, 0.03867212594577895: 1, 0.038671980003164304: 1, 0.03867090990237558: 1, 0.038668916526674146: 1, 0.038667935687871934: 1, 0.038661804080258981: 1, 0.038659862267363836: 1, 0.038655480879466471: 1, 0.038652742495594132: 1, 0.038637766382801579: 1, 0.038633986947472429: 1, 0.038622684300654797: 1, 0.038622405408630593: 1, 0.038609832355218934: 1, 0.038599678282718999: 1, 0.038597160975848636: 1, 0.038590772454785593: 1, 0.038590447449717576: 1, 0.038587059980011287: 1, 0.038585131305397889: 1, 0.038584737033843242: 1, 0.038580688257759295: 1, 0.038575463389348974: 1, 0.038574492798913833: 1, 0.038574152880293512: 1, 0.038572495326345602: 1, 0.038570540167999365: 1, 0.038570372993335315: 1, 0.038562640401045511: 1, 0.038558684013638628: 1, 0.038557742299630285: 1, 0.038554263528336949: 1, 0.038552634110084839: 1, 0.038548504768278882: 1, 0.038547570164184933: 1, 0.038544552174082113: 1, 0.03854315865427111: 1, 0.038538688668514808: 1, 0.038537309847868018: 1, 0.038533903255241045: 1, 0.038533063617946124: 1, 0.038529582774655513: 1, 0.038522461321564908: 1, 0.038521025557005657: 1, 0.038518418623704115: 1, 0.038513787690748161: 1, 0.038510181112873666: 1, 0.038505335445675574: 1, 0.038502944089213377: 1, 0.03850225931005348: 1, 0.038500749851245838: 1, 0.038498014675486851: 1, 0.038497966781906312: 1, 0.038487001401125862: 1, 0.038486311987313934: 1, 0.038485498371781078: 1, 0.038483408982913268: 1, 0.038477816812442549: 1, 0.03847508200664293: 1, 0.038471941102029464: 1, 0.038470371229378873: 1, 0.038467948716800336: 1, 0.038463383517081152: 1, 0.038446467155238896: 1, 0.038441778658223402: 1, 0.038435325946382042: 1, 0.038434345246995731: 1, 0.03843366822564892: 1, 0.038425076172659521: 1, 0.038423795432336677: 1, 0.038422477664981323: 1, 0.038422019094309187: 1, 0.038416095315699027: 1, 0.038415842681780943: 1, 0.038412479761258778: 1, 0.038412388981544324: 1, 0.038411201969661399: 1, 0.038405332879145639: 1, 0.03840290525384886: 1, 0.038400488518454762: 1, 0.038397954809834552: 1, 0.038395508669680126: 1, 0.038391752484270611: 1, 0.038382839277107311: 1, 0.038382086929303963: 1, 0.038379667715367091: 1, 0.038378489718380322: 1, 0.038372093537514938: 1, 0.038370924352797174: 1, 0.038370683775967085: 1, 0.038366469941701363: 1, 0.038355464753740999: 1, 0.038349897133012512: 1, 0.038349312287787748: 1, 0.038340684967122479: 1, 0.038339246568077009: 1, 0.038338474811631419: 1, 0.038336613633648972: 1, 0.038336518303764194: 1, 0.038331953661798271: 1, 0.03832821676430298: 1, 0.038326495941581412: 1, 0.038324493169941375: 1, 0.038320962079224377: 1, 0.038317473454700796: 1, 0.03831508275031701: 1, 0.038314019528065735: 1, 0.038310438294256302: 1, 0.038300468551116171: 1, 0.038298833917669625: 1, 0.03829663392122408: 1, 0.038290672724870037: 1, 0.038286965157393993: 1, 0.038282232717047136: 1, 0.038281462955798498: 1, 0.038276668684748202: 1, 0.038271230589486872: 1, 0.038268919649680232: 1, 0.038267187239611748: 1, 0.038260693165651699: 1, 0.038251636625436042: 1, 0.03825029447515458: 1, 0.03824858906945424: 1, 0.038241804406415732: 1, 0.038240096058288812: 1, 0.038239977894703833: 1, 0.038238799233590845: 1, 0.038233170075281306: 1, 0.038231629196505072: 1, 0.03822570493458164: 1, 0.038219634326131291: 1, 0.03821607620719223: 1, 0.038212425001681531: 1, 0.038204128576489353: 1, 0.038202534014504019: 1, 0.038198395187990897: 1, 0.038196499209468812: 1, 0.038195787669730953: 1, 0.038184564587991021: 1, 0.038178714355529747: 1, 0.038176345629054489: 1, 0.038166996207075872: 1, 0.038156081307325021: 1, 0.038152604824936827: 1, 0.038150937558044246: 1, 0.038149513459811005: 1, 0.038133998909243703: 1, 0.038129210243938831: 1, 0.038129044966332772: 1, 0.038120550395409285: 1, 0.038120120441897928: 1, 0.038117681961276385: 1, 0.038109735523536421: 1, 0.038098612233888093: 1, 0.03809855508201436: 1, 0.03809696281972462: 1, 0.03809334548309886: 1, 0.038093175756310924: 1, 0.038092731231653125: 1, 0.038089430779724175: 1, 0.038086742974910451: 1, 0.038057725083321475: 1, 0.038057632059841182: 1, 0.038057353000113453: 1, 0.038056662304503691: 1, 0.038055774417330775: 1, 0.038053618337592923: 1, 0.038049180662919832: 1, 0.03804703853826704: 1, 0.03804425680065935: 1, 0.038042460353702907: 1, 0.038035762579891511: 1, 0.0380315730058223: 1, 0.038028111677469931: 1, 0.038025900206965176: 1, 0.038020749610612734: 1, 0.038019046514430083: 1, 0.03801156318923507: 1, 0.038005514471729937: 1, 0.038001359471022907: 1, 0.037995821913218888: 1, 0.037992051164996862: 1, 0.037990722890386075: 1, 0.037988889975774397: 1, 0.03798554433543725: 1, 0.037982225031025489: 1, 0.037982208421860474: 1, 0.037982194139464721: 1, 0.037980949883407757: 1, 0.037980635700989078: 1, 0.037976803493138714: 1, 0.037974865918585551: 1, 0.037974014142750659: 1, 0.037964122952192737: 1, 0.037959286354499591: 1, 0.037958040479765635: 1, 0.037957851118469499: 1, 0.037955176503857518: 1, 0.037954800823420384: 1, 0.037947394959337834: 1, 0.03794373552715824: 1, 0.037941658654418425: 1, 0.037937285516568837: 1, 0.037936551355371148: 1, 0.037928575510145154: 1, 0.037928453383646726: 1, 0.037923149131114824: 1, 0.037923106305134527: 1, 0.037919877511326243: 1, 0.037917235069444423: 1, 0.037914238071967553: 1, 0.037912958157324844: 1, 0.037911713870664963: 1, 0.037909324271572661: 1, 0.037901181943059539: 1, 0.037898680153837051: 1, 0.037897442532879161: 1, 0.037896882728118808: 1, 0.037888108612319428: 1, 0.037883475648443167: 1, 0.037877209093008589: 1, 0.037875236865939695: 1, 0.037874520304005968: 1, 0.037863880927448405: 1, 0.037862056384062009: 1, 0.037859952259819196: 1, 0.037858445980911065: 1, 0.037850806666822577: 1, 0.037846631034402341: 1, 0.037835952425467161: 1, 0.037835541051635987: 1, 0.037829968014795573: 1, 0.037823419440690342: 1, 0.037819647123881167: 1, 0.03780340719391214: 1, 0.037801136484898981: 1, 0.037796227369504241: 1, 0.037794644770691277: 1, 0.037783959848766896: 1, 0.037782591803589033: 1, 0.037779988867878464: 1, 0.037776394658949469: 1, 0.037774561071449178: 1, 0.037748662727477039: 1, 0.03774860251492608: 1, 0.037744663819433727: 1, 0.037744411986222248: 1, 0.037741990994533035: 1, 0.037741244857586641: 1, 0.037737754689461341: 1, 0.037733731627894181: 1, 0.037733140944474906: 1, 0.037731036267623599: 1, 0.037716927532034088: 1, 0.037715334390280839: 1, 0.037713604230025025: 1, 0.037710905083395398: 1, 0.037707838822828008: 1, 0.037701886364282615: 1, 0.037694799977799828: 1, 0.037692623929103719: 1, 0.037691974650446124: 1, 0.03769033673154179: 1, 0.037689989741773289: 1, 0.03768901990277853: 1, 0.037684771449263348: 1, 0.037677360695221269: 1, 0.037663738318082257: 1, 0.037663458158458424: 1, 0.037661889843819615: 1, 0.037661640936037237: 1, 0.037660779073921249: 1, 0.037653964800983569: 1, 0.037651874326640869: 1, 0.037650388062042649: 1, 0.03764545902697411: 1, 0.037644282186157105: 1, 0.037636295421609837: 1, 0.03763058987665633: 1, 0.037629885522866599: 1, 0.037627333933191343: 1, 0.037625028986694953: 1, 0.037623326223554389: 1, 0.037622632719572474: 1, 0.037617645781167094: 1, 0.037616301307867084: 1, 0.037615926389661658: 1, 0.037614948660165598: 1, 0.037614813884982334: 1, 0.037614572774385242: 1, 0.037612679745595359: 1, 0.037609120627875733: 1, 0.037607546086362222: 1, 0.037602940324618334: 1, 0.037601739416194761: 1, 0.037593882842785212: 1, 0.03759253426772876: 1, 0.037586555094413159: 1, 0.037586505148940755: 1, 0.037581524516649728: 1, 0.037579492474717563: 1, 0.037569342873528561: 1, 0.037565784076314238: 1, 0.037563709834232663: 1, 0.037549036074682782: 1, 0.037534187483188701: 1, 0.037529822786072038: 1, 0.037513681088994937: 1, 0.037508640172919175: 1, 0.03750283418774597: 1, 0.037502135890529066: 1, 0.037500435035168506: 1, 0.037499859911423211: 1, 0.037497475566318085: 1, 0.037490417074591699: 1, 0.037488439189770136: 1, 0.037488017858920003: 1, 0.037487116713123325: 1, 0.037486424492236221: 1, 0.037485972180636366: 1, 0.037484422636361467: 1, 0.037481450281963723: 1, 0.037474201269893134: 1, 0.037469241463154029: 1, 0.037451123214760136: 1, 0.037444013514018576: 1, 0.037443900314039269: 1, 0.037443893073743857: 1, 0.037434854903124884: 1, 0.037429486551984109: 1, 0.0374219485378713: 1, 0.037420555158388429: 1, 0.037419152779473629: 1, 0.037400722335053434: 1, 0.037400304969986663: 1, 0.037396536964769946: 1, 0.037391164911166494: 1, 0.037384464324224251: 1, 0.03737927046930558: 1, 0.03737715337393669: 1, 0.037376592256880337: 1, 0.037375914566089727: 1, 0.037375334412602837: 1, 0.037374639396343799: 1, 0.03736839373966909: 1, 0.037365337471685335: 1, 0.037362434487219799: 1, 0.037360567876284508: 1, 0.037351369827908251: 1, 0.037348129565801108: 1, 0.037338760732659307: 1, 0.037335277767784253: 1, 0.037321995336050004: 1, 0.037318612905590819: 1, 0.037318579143543244: 1, 0.037318414902376598: 1, 0.037307532672863963: 1, 0.037296303252154363: 1, 0.037294207964435881: 1, 0.037292686489542842: 1, 0.037292592883285444: 1, 0.037288039662750773: 1, 0.03728629748510448: 1, 0.0372787264402979: 1, 0.037277431254184902: 1, 0.037276845019858749: 1, 0.037273545791253859: 1, 0.03727253552847791: 1, 0.037270887982632742: 1, 0.037260290559842833: 1, 0.037259674542003733: 1, 0.037259020314196881: 1, 0.037258862258400478: 1, 0.037251404174223401: 1, 0.037240461571516413: 1, 0.037235249399548587: 1, 0.037233616736438373: 1, 0.03723359728914357: 1, 0.037229715545959226: 1, 0.037217901616115441: 1, 0.037217678412623863: 1, 0.037215347341249677: 1, 0.037213836052957167: 1, 0.037210493428265254: 1, 0.03720614333641379: 1, 0.037205057663881727: 1, 0.037201268152312492: 1, 0.037200475244651865: 1, 0.037195993964137267: 1, 0.037191995133117182: 1, 0.037190702351876173: 1, 0.037190698872981612: 1, 0.037190047570726692: 1, 0.037189783326416245: 1, 0.037183130913259595: 1, 0.037171520751332697: 1, 0.037167276893428261: 1, 0.037164034147116103: 1, 0.037158353745431173: 1, 0.037150828472795709: 1, 0.037148814862209986: 1, 0.037139570103230116: 1, 0.03713338263744384: 1, 0.037133194454275265: 1, 0.03713230678272144: 1, 0.037131203313603943: 1, 0.037130780349414673: 1, 0.037129445547380728: 1, 0.037127648985726659: 1, 0.037126827719241411: 1, 0.037125233557193271: 1, 0.037120666949123395: 1, 0.037112618773746067: 1, 0.03710003116455915: 1, 0.037097449609941241: 1, 0.037090751186422466: 1, 0.037089171280583401: 1, 0.037088263111742917: 1, 0.037085891911001964: 1, 0.037073185331969183: 1, 0.03706752829979118: 1, 0.037066966434604248: 1, 0.037048959683698722: 1, 0.037045106421326489: 1, 0.037044744318039724: 1, 0.037044111073841597: 1, 0.037041891306728206: 1, 0.037041702611685642: 1, 0.037032444011508583: 1, 0.037031443650309942: 1, 0.037031162402174966: 1, 0.037028961548044081: 1, 0.037027948377835768: 1, 0.037016320690955687: 1, 0.03701566016873159: 1, 0.037015245831286576: 1, 0.037005786826999627: 1, 0.037002600839323295: 1, 0.03699365071904144: 1, 0.0369918534522993: 1, 0.03697754656442527: 1, 0.036974353419727456: 1, 0.03697424681451382: 1, 0.036964625239622045: 1, 0.03696224584992909: 1, 0.036956951982526152: 1, 0.036950951095669343: 1, 0.036941644305707746: 1, 0.036924020679733424: 1, 0.036912818010257004: 1, 0.036906850834578397: 1, 0.036904217279347104: 1, 0.036904124229909734: 1, 0.036894711029053021: 1, 0.036883911817539486: 1, 0.036882273227735005: 1, 0.036876963817040045: 1, 0.036865111044735499: 1, 0.036859595698383311: 1, 0.036851235568733903: 1, 0.036850905415766966: 1, 0.036848007675524264: 1, 0.036843275040818316: 1, 0.036839654268626634: 1, 0.036833346796599713: 1, 0.036817131282152318: 1, 0.036811515984152846: 1, 0.036810430574077603: 1, 0.036800465335999726: 1, 0.036797059484226083: 1, 0.036796240239944503: 1, 0.036793689442869794: 1, 0.036790156284849586: 1, 0.036789099165917674: 1, 0.036772792945657662: 1, 0.036772100952843868: 1, 0.036769274336745594: 1, 0.036769268645275174: 1, 0.036744971505484919: 1, 0.03674079712934368: 1, 0.03673482604946425: 1, 0.036733573173491567: 1, 0.036726264192434112: 1, 0.036714025676654327: 1, 0.036709947955573467: 1, 0.036707197417100004: 1, 0.036707067370747221: 1, 0.036706050633576119: 1, 0.036702233000501724: 1, 0.036690335886453776: 1, 0.036689049826721915: 1, 0.036685991359118569: 1, 0.036685345728796968: 1, 0.03668532138140821: 1, 0.036679470933606281: 1, 0.036677190135990738: 1, 0.036674207410904117: 1, 0.036674041633928477: 1, 0.036672848027959115: 1, 0.03667267391732703: 1, 0.036671689432946936: 1, 0.036668812727145901: 1, 0.036661816001992836: 1, 0.036659781326786947: 1, 0.03665829581166203: 1, 0.036649986748166219: 1, 0.036648676055979705: 1, 0.036645894322883156: 1, 0.036639662433528099: 1, 0.036633424211615827: 1, 0.036629138121504694: 1, 0.036627989470717839: 1, 0.036624603131287445: 1, 0.03661609016698103: 1, 0.036615364838385622: 1, 0.036612910630494995: 1, 0.036611758421989618: 1, 0.036604939647376503: 1, 0.036601571026399146: 1, 0.036594096491690258: 1, 0.036588096648729203: 1, 0.036582528743655876: 1, 0.036577720604994403: 1, 0.036576781273629698: 1, 0.036576602868955879: 1, 0.036573053129887095: 1, 0.036563131211239247: 1, 0.036563124772109531: 1, 0.0365621946574844: 1, 0.036554198518159851: 1, 0.036546258376684272: 1, 0.03654407256139372: 1, 0.036541373230827068: 1, 0.036540883676559117: 1, 0.036534980713745703: 1, 0.036528994602935426: 1, 0.036528467914648997: 1, 0.036528336778352724: 1, 0.036528326741098516: 1, 0.036527998701863337: 1, 0.03652642073701938: 1, 0.036523961761904256: 1, 0.036523630966746573: 1, 0.036523523724087473: 1, 0.036520849070922561: 1, 0.036515265306009348: 1, 0.036512810400516377: 1, 0.036511506980678926: 1, 0.036507331473056452: 1, 0.036506522064776337: 1, 0.036506312290280278: 1, 0.036499821825089929: 1, 0.036498324572554593: 1, 0.03649739255429215: 1, 0.036494177098168087: 1, 0.036483332212598404: 1, 0.036479640536059163: 1, 0.036475676969928178: 1, 0.036474741874225274: 1, 0.036474620701304715: 1, 0.036474105717055248: 1, 0.036473167764052579: 1, 0.036468986986618636: 1, 0.036467506230728183: 1, 0.036455314760349404: 1, 0.036448841612953455: 1, 0.036443351648706893: 1, 0.036435721342736906: 1, 0.036432628936545502: 1, 0.03643213637683014: 1, 0.036419618064072679: 1, 0.036415189249314056: 1, 0.036395034603861606: 1, 0.036372977824224849: 1, 0.036372143550587904: 1, 0.036360559438400601: 1, 0.036360099444812881: 1, 0.036355340822884399: 1, 0.036354434615882295: 1, 0.036347556678937951: 1, 0.036337827567403065: 1, 0.03633509915648106: 1, 0.036330810111744341: 1, 0.036326306941337365: 1, 0.036325128963459047: 1, 0.036324275718739446: 1, 0.036320169532458368: 1, 0.036318633386519014: 1, 0.036314981475180329: 1, 0.036308432764294685: 1, 0.036308366095945004: 1, 0.036307124524418526: 1, 0.036302141754013507: 1, 0.036301638736714888: 1, 0.036301467840600114: 1, 0.036291937475585109: 1, 0.036286789854204977: 1, 0.036286165489371212: 1, 0.036278940471016957: 1, 0.036267812189151746: 1, 0.036266519179778398: 1, 0.036266510802360249: 1, 0.036258120110618283: 1, 0.036253030348810292: 1, 0.036237684626737474: 1, 0.036228090091035593: 1, 0.036225874516783142: 1, 0.036225817760580509: 1, 0.036213550387156616: 1, 0.036213075631845108: 1, 0.036206344654333852: 1, 0.036204455679893964: 1, 0.036203823995606413: 1, 0.036193972548975918: 1, 0.036187349938050062: 1, 0.036183557799657776: 1, 0.036181936248958491: 1, 0.036181690432066198: 1, 0.036181618324183824: 1, 0.036178558394426637: 1, 0.036174344105803939: 1, 0.036173077639503552: 1, 0.036166748978994273: 1, 0.036158558145708168: 1, 0.036156888605446399: 1, 0.036151285560250858: 1, 0.036147100743236564: 1, 0.036143223740234501: 1, 0.03613521413523562: 1, 0.036131505208877736: 1, 0.036123705949397789: 1, 0.036117692459936734: 1, 0.036115479559921865: 1, 0.036112708362129653: 1, 0.036112162368916199: 1, 0.036105799389214425: 1, 0.036101341985078493: 1, 0.036095903872876547: 1, 0.036095474284211372: 1, 0.03609467735395866: 1, 0.036089132448326455: 1, 0.036087879398583829: 1, 0.036081798224388999: 1, 0.036080571093565036: 1, 0.036080332463229225: 1, 0.036071780074118612: 1, 0.036062414377647518: 1, 0.036061651925880671: 1, 0.036056572590442829: 1, 0.036052935689864202: 1, 0.036051046149231436: 1, 0.036047460673046872: 1, 0.03603645408700934: 1, 0.036036273094215122: 1, 0.036035566099833827: 1, 0.03603351482753981: 1, 0.036033026192779691: 1, 0.036029647633672619: 1, 0.036020578928923151: 1, 0.036015295416158756: 1, 0.03601186331920312: 1, 0.036007459637243132: 1, 0.035994756633670168: 1, 0.035994432370145962: 1, 0.035990071094588363: 1, 0.035988510266128849: 1, 0.035988076755510731: 1, 0.03598644663360525: 1, 0.035985358121889334: 1, 0.035981080389408053: 1, 0.035958894707082405: 1, 0.035958435548315126: 1, 0.035957833951946787: 1, 0.035956766648284295: 1, 0.035955083341061352: 1, 0.03595421094161242: 1, 0.035947623786491918: 1, 0.035942168071396503: 1, 0.035938217748205235: 1, 0.035937509099674893: 1, 0.035936116291095763: 1, 0.035935654836969977: 1, 0.035935262377432331: 1, 0.0359288659509516: 1, 0.035923003338072225: 1, 0.035915628141525921: 1, 0.035911215789454332: 1, 0.035907378003059501: 1, 0.035901024692517991: 1, 0.035897485867012843: 1, 0.035897178597429275: 1, 0.035896089357642748: 1, 0.035894085409388939: 1, 0.035893991868595009: 1, 0.035891289436135045: 1, 0.035887437047025066: 1, 0.035886288456898223: 1, 0.035879232032744651: 1, 0.035874674702540542: 1, 0.035866943994662705: 1, 0.035861688205786842: 1, 0.035850445988798232: 1, 0.035850011248718346: 1, 0.035847798074631086: 1, 0.035841405161179438: 1, 0.035841303581936282: 1, 0.03583930387103719: 1, 0.035838568711629264: 1, 0.035837117295110632: 1, 0.035833422879037471: 1, 0.035832259715586907: 1, 0.035830828456564802: 1, 0.035821053051230435: 1, 0.035818394587110794: 1, 0.035812147690927325: 1, 0.035794560111020821: 1, 0.03579424176255417: 1, 0.035791900462177631: 1, 0.035790860808039504: 1, 0.035787858627604127: 1, 0.035784382910990578: 1, 0.035778076394233728: 1, 0.035774660996363866: 1, 0.03577100644062578: 1, 0.035770490369442021: 1, 0.035758497989943024: 1, 0.0357534503541828: 1, 0.03575189560466821: 1, 0.035736193915302569: 1, 0.035728428279334479: 1, 0.035721807907692131: 1, 0.03572017201675233: 1, 0.03571737189208888: 1, 0.035715474688158028: 1, 0.035713479960811874: 1, 0.035712381282621858: 1, 0.035710167790206568: 1, 0.035707015764513871: 1, 0.035706229754414072: 1, 0.035703650963597199: 1, 0.035699722369892814: 1, 0.035698759074943173: 1, 0.035688323121726345: 1, 0.035685645034170502: 1, 0.035685169919445023: 1, 0.035680763318180916: 1, 0.035671500366855645: 1, 0.035664325889901261: 1, 0.035663247392099501: 1, 0.035659047445087716: 1, 0.035655383668053396: 1, 0.035650941456858501: 1, 0.03564676555303254: 1, 0.035641337860540176: 1, 0.035641092329883245: 1, 0.035626175974808216: 1, 0.035623237107363231: 1, 0.035622780391341438: 1, 0.035618056840213158: 1, 0.035605961992921431: 1, 0.035602192569988214: 1, 0.035597632752802096: 1, 0.035595871417226935: 1, 0.035587992061594881: 1, 0.035579395843362796: 1, 0.035576859553723653: 1, 0.035575898829089042: 1, 0.035575544796500984: 1, 0.035573497783009014: 1, 0.035565164115482793: 1, 0.035562057217944296: 1, 0.035561917289274325: 1, 0.035558435770413274: 1, 0.035557760343873521: 1, 0.035556433709932056: 1, 0.035545707856156468: 1, 0.035534860619732732: 1, 0.035533198604078865: 1, 0.035526810135413263: 1, 0.035517627251203554: 1, 0.035515696367032272: 1, 0.035515642931572569: 1, 0.035515534088184433: 1, 0.035514745403207836: 1, 0.035511743288733265: 1, 0.035506144185051096: 1, 0.035504051916828906: 1, 0.035501187611447618: 1, 0.035486310502131066: 1, 0.035485236748243082: 1, 0.03548043988777471: 1, 0.035478632023504091: 1, 0.035457771005729069: 1, 0.035457217524459399: 1, 0.035456370174498285: 1, 0.035450849328899296: 1, 0.035446575545045551: 1, 0.035445541742433057: 1, 0.035443663995438787: 1, 0.035438322769082473: 1, 0.035437139216838651: 1, 0.035437087300703253: 1, 0.03543122259110542: 1, 0.035418477295488776: 1, 0.035413309892569723: 1, 0.035412823811283467: 1, 0.03541209710047543: 1, 0.03541151768377495: 1, 0.035403451186494538: 1, 0.035401299542895941: 1, 0.035383282649341846: 1, 0.035381671601979005: 1, 0.035381242691288665: 1, 0.035376552378565705: 1, 0.035373265698304943: 1, 0.035372244720734219: 1, 0.035367755323945364: 1, 0.035366755459396187: 1, 0.035363314376459308: 1, 0.035360945889900526: 1, 0.035358529102135106: 1, 0.035352714132933692: 1, 0.035349211394870982: 1, 0.03534867807740269: 1, 0.035339022878445855: 1, 0.035338826336998218: 1, 0.035336128827828064: 1, 0.035333957649840424: 1, 0.035326241802358022: 1, 0.035325941893482572: 1, 0.035324311381992067: 1, 0.035321884318037525: 1, 0.035320888409551457: 1, 0.035320839020009917: 1, 0.035320644785586809: 1, 0.03531719148944712: 1, 0.035303758539661202: 1, 0.03529999683555228: 1, 0.035292791039804344: 1, 0.035291903637031899: 1, 0.035291788278688167: 1, 0.0352900288080732: 1, 0.035274328793297942: 1, 0.035267288273745132: 1, 0.035266694384899024: 1, 0.035264946220187068: 1, 0.035252746033434812: 1, 0.035251540795488361: 1, 0.035248005259394165: 1, 0.035233653426777846: 1, 0.035233559951658618: 1, 0.035218473740802371: 1, 0.035213922463039594: 1, 0.035213362275141609: 1, 0.035207324853779906: 1, 0.035205548942977852: 1, 0.035204895513357724: 1, 0.035201454122873899: 1, 0.035200657408016395: 1, 0.035197714161741167: 1, 0.03517989819695537: 1, 0.03516806380366426: 1, 0.035164094531885008: 1, 0.035153162713712667: 1, 0.035151320341870879: 1, 0.035151007164386371: 1, 0.035150619566965267: 1, 0.035149138063608337: 1, 0.035146677414277086: 1, 0.035144117268444658: 1, 0.035141058203817688: 1, 0.035140142680080019: 1, 0.035138520172950598: 1, 0.035133885741276197: 1, 0.035131418019639052: 1, 0.035128669341598362: 1, 0.035127342531032162: 1, 0.035109804888335074: 1, 0.035105233452838121: 1, 0.035099398873929474: 1, 0.035099001425499085: 1, 0.035097501463685329: 1, 0.035095932183536634: 1, 0.035079284381546359: 1, 0.035079125108852909: 1, 0.035079094145839824: 1, 0.035067155891129145: 1, 0.035066996661664317: 1, 0.035066408436293141: 1, 0.035063482027412857: 1, 0.035061364818939803: 1, 0.035061051707480938: 1, 0.035058518367124786: 1, 0.035048331408850608: 1, 0.035038114530478295: 1, 0.035029394958752333: 1, 0.035027941677844787: 1, 0.035027613631536975: 1, 0.035027500278622281: 1, 0.035017157872924157: 1, 0.035012130249481653: 1, 0.035007703908115945: 1, 0.03500738087457398: 1, 0.035004738141096226: 1, 0.034995592746853085: 1, 0.034992071398528495: 1, 0.03499197256583373: 1, 0.034972350812553885: 1, 0.034966166822788067: 1, 0.034963367775394896: 1, 0.034961708177424368: 1, 0.034961561009133592: 1, 0.034958768607363029: 1, 0.03495749978299395: 1, 0.034956915208843323: 1, 0.034937942126139744: 1, 0.034935486935927698: 1, 0.034930277670378568: 1, 0.034929356438560419: 1, 0.034928718339825041: 1, 0.034928617137121303: 1, 0.034928093164426625: 1, 0.034927725092521449: 1, 0.034925405509028555: 1, 0.034924783537042474: 1, 0.034923264490092795: 1, 0.03490033731195092: 1, 0.034898406313472463: 1, 0.034896971303904664: 1, 0.034895483055867621: 1, 0.034890736138933981: 1, 0.034886081423013256: 1, 0.03488422816341831: 1, 0.034883795874461485: 1, 0.034883203815002234: 1, 0.0348803627418399: 1, 0.034875794990614606: 1, 0.034875764272468357: 1, 0.034870984940955245: 1, 0.03486893889785235: 1, 0.034863404850451127: 1, 0.034859913610538765: 1, 0.034856525248507367: 1, 0.034852867031021473: 1, 0.034841920001808344: 1, 0.034836207220257646: 1, 0.03483550514093043: 1, 0.03483512821987212: 1, 0.034827901241377884: 1, 0.034825780016202956: 1, 0.034812877889873257: 1, 0.034812768441600063: 1, 0.03481168133383955: 1, 0.03480765325896347: 1, 0.034797714294942952: 1, 0.034797414696173819: 1, 0.034794009466023276: 1, 0.034790439748447984: 1, 0.034789838936308631: 1, 0.034785745405298045: 1, 0.034785101550208024: 1, 0.034784163072191017: 1, 0.034783019810209481: 1, 0.034782205709190439: 1, 0.034779891958141761: 1, 0.034776215151224539: 1, 0.034770651555065479: 1, 0.034768969545021025: 1, 0.034765053968756017: 1, 0.034763045618603071: 1, 0.034755790953098983: 1, 0.03474885431439368: 1, 0.034743659356670051: 1, 0.03473897022107679: 1, 0.034737490327209075: 1, 0.034732111515594202: 1, 0.03472635721594447: 1, 0.034724396515892084: 1, 0.034722382534648072: 1, 0.034722292998479551: 1, 0.034718798248981927: 1, 0.034717980600662862: 1, 0.034717935230563143: 1, 0.034712795940837995: 1, 0.034703268435996193: 1, 0.034693126628104358: 1, 0.034689549011724372: 1, 0.034678386107203835: 1, 0.034676877227497363: 1, 0.034670275776990757: 1, 0.034661286996823096: 1, 0.034656409593683699: 1, 0.034654184952775891: 1, 0.034643953523019008: 1, 0.034635035614602662: 1, 0.034626158218680599: 1, 0.034624697178978571: 1, 0.034622906312334716: 1, 0.034622485127302635: 1, 0.034618374872455025: 1, 0.034607967019846461: 1, 0.034602012060907558: 1, 0.034598266835977991: 1, 0.034582953106113215: 1, 0.034582479840794884: 1, 0.034577343792461829: 1, 0.034577178482061065: 1, 0.034573800877100172: 1, 0.034572678479615496: 1, 0.034570374612447621: 1, 0.034562184590466366: 1, 0.034562152256262683: 1, 0.034558037131218848: 1, 0.034555155425205562: 1, 0.034555115706913671: 1, 0.034554529564297082: 1, 0.03455048515156376: 1, 0.034547981848358986: 1, 0.034538447704298959: 1, 0.034536564844216716: 1, 0.03453392964789654: 1, 0.03453369727416223: 1, 0.03453193270990703: 1, 0.034530083617893795: 1, 0.034527293884201671: 1, 0.034514812498215253: 1, 0.0345136624289012: 1, 0.034507939603555388: 1, 0.034504674222486362: 1, 0.034503329640677038: 1, 0.034498665832315659: 1, 0.034494960468945964: 1, 0.034494616158636734: 1, 0.034493326702759668: 1, 0.034491045856613764: 1, 0.03448954860653336: 1, 0.034481946491212945: 1, 0.034481685102364115: 1, 0.03447876572258983: 1, 0.034477326071113201: 1, 0.034473325363944318: 1, 0.034466080238715752: 1, 0.034463531715654354: 1, 0.034461634902320834: 1, 0.034459433333076155: 1, 0.034448370770084877: 1, 0.034446552132925384: 1, 0.03443869669191036: 1, 0.034423254565195363: 1, 0.034417518824029714: 1, 0.034407590162415222: 1, 0.034403424584846132: 1, 0.034400638474861425: 1, 0.034397819671747147: 1, 0.034397678849822741: 1, 0.034397459758122681: 1, 0.034393524663016081: 1, 0.034391886901276709: 1, 0.034389547642333262: 1, 0.034377282920254285: 1, 0.03437465615374543: 1, 0.034370803656358445: 1, 0.034364356577321176: 1, 0.034363863144280075: 1, 0.034342111168099369: 1, 0.034336541245703053: 1, 0.034334736748515629: 1, 0.034324032257229249: 1, 0.034323470911004732: 1, 0.034323055180851207: 1, 0.034318434255470438: 1, 0.034315982387724167: 1, 0.034314069334806359: 1, 0.03431241362242568: 1, 0.034309135079543557: 1, 0.034301565304381436: 1, 0.03429786452669481: 1, 0.03429582731901936: 1, 0.03428947069188415: 1, 0.034282883288544758: 1, 0.034282230087044244: 1, 0.034276664375578282: 1, 0.034276559907152164: 1, 0.034276501033805806: 1, 0.034270015020987872: 1, 0.034264170586116353: 1, 0.034258280830509059: 1, 0.034257285703323911: 1, 0.034253919421973304: 1, 0.034252360502982027: 1, 0.034238477321191209: 1, 0.034238025046290831: 1, 0.034237190636868212: 1, 0.034235783088882935: 1, 0.034233940234476928: 1, 0.034231284433314135: 1, 0.034228575163145002: 1, 0.034211228445785086: 1, 0.034209519773584836: 1, 0.034208572181353647: 1, 0.03420174656031405: 1, 0.03420074146970041: 1, 0.034200213605003305: 1, 0.034197819414442956: 1, 0.034197704424253988: 1, 0.03419662699888968: 1, 0.034189283626166342: 1, 0.034185465072941255: 1, 0.034173859265493219: 1, 0.034169508065488352: 1, 0.034166715325614945: 1, 0.034166138038824526: 1, 0.034164697096588648: 1, 0.03416342619089377: 1, 0.034163112053169811: 1, 0.034162365192195766: 1, 0.034160196742131201: 1, 0.034159436701835605: 1, 0.034155606601893013: 1, 0.034147095133485121: 1, 0.034137981684964486: 1, 0.034137705098288243: 1, 0.034133922288635571: 1, 0.034132705308956297: 1, 0.034130684342525378: 1, 0.034129860202220544: 1, 0.034119807911939699: 1, 0.034119806113146703: 1, 0.034117243324087637: 1, 0.034114683471207552: 1, 0.034109609971105855: 1, 0.034103625867935812: 1, 0.034100412856589601: 1, 0.034099553073216889: 1, 0.034096548695100093: 1, 0.034095025309838961: 1, 0.034093096549054333: 1, 0.034088061574866067: 1, 0.034083669738511631: 1, 0.034080173487513972: 1, 0.034078528090945436: 1, 0.034072965889662951: 1, 0.034069355493010677: 1, 0.034068825559298951: 1, 0.034066838103222995: 1, 0.034066598896759163: 1, 0.034064090135483754: 1, 0.03406103843897413: 1, 0.034057534755381286: 1, 0.034052055965439823: 1, 0.034051203966619675: 1, 0.034046135832139571: 1, 0.03403956872940362: 1, 0.034036211977579708: 1, 0.034032783893412966: 1, 0.034029553763532186: 1, 0.034016342647342025: 1, 0.034015603475469239: 1, 0.034005145514721363: 1, 0.034001699585015414: 1, 0.033993532972477571: 1, 0.03398934470602618: 1, 0.033987161540208123: 1, 0.03398672952951217: 1, 0.033986615934830031: 1, 0.033984460154796198: 1, 0.033979267757150267: 1, 0.033978432079140392: 1, 0.033971685255774396: 1, 0.033969864392873902: 1, 0.033969844340505401: 1, 0.033965653567260487: 1, 0.033963132460075138: 1, 0.033963072369675391: 1, 0.033952208614877827: 1, 0.033943836184084371: 1, 0.033938414004254007: 1, 0.033935532016762582: 1, 0.033928610262186645: 1, 0.033926125597532032: 1, 0.033926023342756358: 1, 0.033921040666297461: 1, 0.033916070699020195: 1, 0.033911792485150347: 1, 0.033908857786464998: 1, 0.03390113850370316: 1, 0.033896686250871104: 1, 0.033894048176471347: 1, 0.033889810418062424: 1, 0.033887706647608207: 1, 0.033884080284591077: 1, 0.033874578387191524: 1, 0.033874541139032405: 1, 0.033871705556644281: 1, 0.033869645335246515: 1, 0.033867628106395195: 1, 0.033867037899068642: 1, 0.033866353272707997: 1, 0.033863655077722224: 1, 0.033853526035231236: 1, 0.033852593257822271: 1, 0.033843685234422598: 1, 0.033839962330108157: 1, 0.03383417933658333: 1, 0.033829896228305192: 1, 0.033829390665209416: 1, 0.033827599103481078: 1, 0.033823609187783717: 1, 0.033820138226781898: 1, 0.033811817513808705: 1, 0.033811632701925762: 1, 0.033807516517454124: 1, 0.033804851169839459: 1, 0.033796390579120442: 1, 0.033795268792888335: 1, 0.033791907742354237: 1, 0.033789759540943994: 1, 0.033780316684845879: 1, 0.033772123440024407: 1, 0.033771373824024335: 1, 0.03376951659231861: 1, 0.033759486217403309: 1, 0.033758181763213956: 1, 0.033749968427541473: 1, 0.033747335543653528: 1, 0.033746239294589836: 1, 0.03374163791250448: 1, 0.033738536708181048: 1, 0.033737767364210504: 1, 0.033736286332646047: 1, 0.03372834320661848: 1, 0.033721298781401142: 1, 0.03371629746365646: 1, 0.033703530297526409: 1, 0.033694659657446467: 1, 0.033694099274410264: 1, 0.033693368533922567: 1, 0.033679442829245961: 1, 0.033677931460282598: 1, 0.033669778236323895: 1, 0.033669476948522722: 1, 0.033668843598399174: 1, 0.03366697685403576: 1, 0.033665117355208961: 1, 0.033664778466976068: 1, 0.03366223555592486: 1, 0.033661637199796521: 1, 0.03365509353957926: 1, 0.033649953706151155: 1, 0.033637528450947592: 1, 0.033635590442287137: 1, 0.033635023460376556: 1, 0.033631695064155892: 1, 0.033630536818385563: 1, 0.033628577520577421: 1, 0.03362729971648451: 1, 0.033625216048833263: 1, 0.033624655138028814: 1, 0.033623567482550402: 1, 0.033614889882484428: 1, 0.033613494858876838: 1, 0.033609814111416038: 1, 0.033604288023359088: 1, 0.033603718671895558: 1, 0.033602388939235471: 1, 0.033594238451770134: 1, 0.033591451742283375: 1, 0.033586193524529601: 1, 0.03358610360697329: 1, 0.033580430781738363: 1, 0.033577973040123776: 1, 0.033577495018276268: 1, 0.033575046918573145: 1, 0.033569054206305377: 1, 0.03355869661638676: 1, 0.033556557216893157: 1, 0.033551955830956222: 1, 0.033546830232299089: 1, 0.033546010198590624: 1, 0.033542635386051622: 1, 0.033532535547037168: 1, 0.033525061549594164: 1, 0.033522473670324189: 1, 0.033520202560147504: 1, 0.033518434848155018: 1, 0.033517705065147799: 1, 0.033512882707311724: 1, 0.033509299534411133: 1, 0.033508259023982412: 1, 0.033508051314133827: 1, 0.033505945387170055: 1, 0.033504622588205267: 1, 0.033503432160610587: 1, 0.033496736577362601: 1, 0.033494446181988005: 1, 0.033490392017839182: 1, 0.033484554309051721: 1, 0.033481839548313803: 1, 0.033477421307588587: 1, 0.033475189501138404: 1, 0.033473220732354148: 1, 0.033465486893985312: 1, 0.033463484458364598: 1, 0.033459194102411799: 1, 0.033458278269016949: 1, 0.033457344595075447: 1, 0.033450144684898882: 1, 0.033448942697206621: 1, 0.03344793092496013: 1, 0.033428710781282324: 1, 0.033427835994114342: 1, 0.033426131851098335: 1, 0.033425666245732448: 1, 0.033425016982656659: 1, 0.033421952550116873: 1, 0.033421187061529203: 1, 0.033416714397100811: 1, 0.033407309017715554: 1, 0.033406368380117513: 1, 0.033405286348674637: 1, 0.033403087614843049: 1, 0.033401597526595175: 1, 0.033400729977483806: 1, 0.033399672638727999: 1, 0.033399173500228176: 1, 0.033394928227937784: 1, 0.033393995632698389: 1, 0.033393365039498774: 1, 0.033383669900459385: 1, 0.033380517831614082: 1, 0.03337713066846363: 1, 0.033374005229900153: 1, 0.033370406764069785: 1, 0.033369572268300229: 1, 0.033362080816199555: 1, 0.033359269335081702: 1, 0.033358423517150321: 1, 0.033357475734561083: 1, 0.033355972152343864: 1, 0.033352827083651546: 1, 0.033352082495513392: 1, 0.033350946674132138: 1, 0.033332554732052759: 1, 0.0333304300747378: 1, 0.033326332913827673: 1, 0.033319163817090922: 1, 0.033316021564302759: 1, 0.03331418352337609: 1, 0.033313211554784374: 1, 0.033309758940060039: 1, 0.033307968645455752: 1, 0.033307572983561955: 1, 0.033306714427885784: 1, 0.033298588407354321: 1, 0.033294630701857515: 1, 0.033291965719042076: 1, 0.033291783942023159: 1, 0.033290131164576298: 1, 0.033287806205383227: 1, 0.033287254192890858: 1, 0.033284960934464543: 1, 0.033282196624010593: 1, 0.033273874711556559: 1, 0.033273014143500479: 1, 0.033268875110575476: 1, 0.033265130825332126: 1, 0.033258398634926939: 1, 0.033256227208485457: 1, 0.033254437272308923: 1, 0.033254082537020203: 1, 0.03325308994792292: 1, 0.033249716796243979: 1, 0.033245353817925531: 1, 0.033238357489033386: 1, 0.033236227469248661: 1, 0.03323596470043623: 1, 0.033235908016358541: 1, 0.033227489034629076: 1, 0.033227185434608633: 1, 0.033225370409492243: 1, 0.033224762005305081: 1, 0.033223135197235645: 1, 0.033218951388865159: 1, 0.033207764068636757: 1, 0.033199873206219359: 1, 0.03319296266040906: 1, 0.033192328297397648: 1, 0.033190222077287321: 1, 0.033179565952014781: 1, 0.03317881199076203: 1, 0.033175801127504942: 1, 0.033172294742219451: 1, 0.033169916857840757: 1, 0.033163016467483125: 1, 0.033157965364646741: 1, 0.033157159403764569: 1, 0.033153023042495428: 1, 0.033149737567722382: 1, 0.03314874776285541: 1, 0.033147142831860307: 1, 0.033142890538105103: 1, 0.033142543652254573: 1, 0.033141581187539612: 1, 0.033140980639780451: 1, 0.033138670283509371: 1, 0.033137260505615496: 1, 0.033126574596386439: 1, 0.033126199903676677: 1, 0.033126099948642074: 1, 0.033125565975723595: 1, 0.033123905349564109: 1, 0.033123008800768364: 1, 0.033122910017014687: 1, 0.033110326130511243: 1, 0.033109506585927977: 1, 0.033102597987079915: 1, 0.03310135094645078: 1, 0.033101259175733706: 1, 0.033100792805908184: 1, 0.033096834180440661: 1, 0.033095677538495037: 1, 0.033092710978487996: 1, 0.033092231565810218: 1, 0.033084584719325377: 1, 0.033082899158111259: 1, 0.033081407919818465: 1, 0.033074566541541672: 1, 0.033073475133437669: 1, 0.033071971329358893: 1, 0.033070385696246575: 1, 0.033066936344808548: 1, 0.033064570059001534: 1, 0.033062145582003828: 1, 0.033060390767795093: 1, 0.033051590461568484: 1, 0.033049860657601696: 1, 0.033042082318531042: 1, 0.033040213746024588: 1, 0.033039877091295779: 1, 0.033036690501109002: 1, 0.033026985396262143: 1, 0.033025558634779149: 1, 0.033019045239744506: 1, 0.033016365242676197: 1, 0.03301400319573445: 1, 0.033013214202187099: 1, 0.033012590015467129: 1, 0.033003845530681981: 1, 0.033001645430143806: 1, 0.032997382201004871: 1, 0.032982564828932963: 1, 0.032977781195485188: 1, 0.032976306456956574: 1, 0.03297389914703832: 1, 0.03297293556689284: 1, 0.032965325899738274: 1, 0.032962936208755116: 1, 0.032955485991080676: 1, 0.032951694829280592: 1, 0.032932959445992005: 1, 0.032931298862032388: 1, 0.032926747755732171: 1, 0.032923695616963775: 1, 0.032919789763571614: 1, 0.032915117290880834: 1, 0.032914755806222905: 1, 0.032912250105978626: 1, 0.032910176174839538: 1, 0.032909723292272403: 1, 0.0329096983232956: 1, 0.03290812219987186: 1, 0.032906091354866031: 1, 0.032901656191572801: 1, 0.032899521048766693: 1, 0.032899237973841339: 1, 0.032896955580356345: 1, 0.0328891588018504: 1, 0.032887481328297004: 1, 0.032876691136709379: 1, 0.032873015843932374: 1, 0.032866831994272823: 1, 0.032866723073015809: 1, 0.03286505194804732: 1, 0.032861719849645768: 1, 0.032857021065955096: 1, 0.032853067453615763: 1, 0.03284443784561103: 1, 0.032826252411424395: 1, 0.032825259301834123: 1, 0.032817839381335812: 1, 0.032796585974045493: 1, 0.032792347455205192: 1, 0.032792307073125054: 1, 0.032792294138158096: 1, 0.032786942019185465: 1, 0.032784164031969473: 1, 0.032779567855548232: 1, 0.03277361770090767: 1, 0.032772893962700327: 1, 0.032772614434712632: 1, 0.032744841786772359: 1, 0.032744193467421322: 1, 0.032739331180793724: 1, 0.032737261727154382: 1, 0.03273326778067559: 1, 0.032731197180443219: 1, 0.032721071018335192: 1, 0.032716269569380223: 1, 0.032706957824011153: 1, 0.032706350399187199: 1, 0.032704773584406967: 1, 0.032701565799599708: 1, 0.032700305895132287: 1, 0.032698680985236664: 1, 0.0326809247970287: 1, 0.032679462303150178: 1, 0.032678580576687259: 1, 0.03267313908451535: 1, 0.032672634259131382: 1, 0.032668424563122703: 1, 0.032660651882841112: 1, 0.032651835769952051: 1, 0.032651761448276889: 1, 0.032651218130337653: 1, 0.032650795130111106: 1, 0.032650271682655607: 1, 0.032646217573492078: 1, 0.032641410609316815: 1, 0.032635465208615384: 1, 0.032631967343485127: 1, 0.032631762624142593: 1, 0.032630679166873088: 1, 0.03262396436446624: 1, 0.032621451395024842: 1, 0.032618465126188503: 1, 0.032609419286826077: 1, 0.032594829322099048: 1, 0.032594475892627262: 1, 0.032593073666564346: 1, 0.032592093317635615: 1, 0.032590703447651276: 1, 0.032585545965572921: 1, 0.032582804526496284: 1, 0.032581279510817698: 1, 0.032577588683860764: 1, 0.032574740576642565: 1, 0.032571908472374483: 1, 0.03256470161675739: 1, 0.032561305532140684: 1, 0.032554290558291406: 1, 0.032549158131281251: 1, 0.032544372492524357: 1, 0.032531799853394598: 1, 0.032520336865024896: 1, 0.032519109762849593: 1, 0.032518594418348076: 1, 0.032515620588688197: 1, 0.032507109082838964: 1, 0.032505496761943753: 1, 0.032493744462445642: 1, 0.032491302113988985: 1, 0.032490121664085644: 1, 0.032489899879886569: 1, 0.032484104188345422: 1, 0.032481813221779114: 1, 0.032480832937226214: 1, 0.032480482910677358: 1, 0.032478631320797861: 1, 0.032476718810863808: 1, 0.032469544965382041: 1, 0.032464747090289944: 1, 0.032462443890331538: 1, 0.032454151479956436: 1, 0.032452081748314009: 1, 0.032443829851877229: 1, 0.032439952655068251: 1, 0.032439876589016425: 1, 0.03242384072891033: 1, 0.03241693685615743: 1, 0.032408309939419767: 1, 0.032406851851491947: 1, 0.032401388293894044: 1, 0.032399205980159412: 1, 0.032395720048221686: 1, 0.032387049805885498: 1, 0.032384990234120496: 1, 0.032378744818377797: 1, 0.032376221883780892: 1, 0.032374929403713081: 1, 0.032368533860112583: 1, 0.032363610994749104: 1, 0.032355210663118403: 1, 0.032354631982931571: 1, 0.032351613768069956: 1, 0.032337298390334487: 1, 0.032332656247342724: 1, 0.032332574097920314: 1, 0.032332197777772319: 1, 0.032320672679052503: 1, 0.032320670577444338: 1, 0.032320195094185156: 1, 0.032317324061887656: 1, 0.032315803784669986: 1, 0.032310503743995064: 1, 0.032305580708231058: 1, 0.032304387435369203: 1, 0.032303865351438123: 1, 0.032296358489403702: 1, 0.032293644122048493: 1, 0.03229322216147032: 1, 0.032285262967091381: 1, 0.032284920816437863: 1, 0.032282745768175233: 1, 0.032282676285508773: 1, 0.032281847125829738: 1, 0.032278180442178762: 1, 0.032276793756211675: 1, 0.032271363306438608: 1, 0.032270300255150805: 1, 0.032261775018538032: 1, 0.032256747492296838: 1, 0.03225512278359681: 1, 0.032253667072602063: 1, 0.032244967863679849: 1, 0.032239942387715693: 1, 0.032239744354313669: 1, 0.032238841426775945: 1, 0.032230491875134035: 1, 0.032218692814949955: 1, 0.032218270367631925: 1, 0.032214258657971964: 1, 0.032210846259385695: 1, 0.032209636250436387: 1, 0.032199176409093901: 1, 0.032195397745635936: 1, 0.032192113066416735: 1, 0.032181912464745631: 1, 0.032181875263593597: 1, 0.032179554016957372: 1, 0.032179232588140982: 1, 0.032175650870745233: 1, 0.032172250153155654: 1, 0.032160089232399956: 1, 0.032158730206235012: 1, 0.03215494502330056: 1, 0.032150881118614152: 1, 0.032149032448543995: 1, 0.032148516915439088: 1, 0.032140839865789229: 1, 0.032134395148162326: 1, 0.032129585429866929: 1, 0.032127403292199042: 1, 0.032124990625634578: 1, 0.032121971214540357: 1, 0.032121626246902353: 1, 0.032110627598986904: 1, 0.032109427677412213: 1, 0.032106800356107697: 1, 0.032104314925539203: 1, 0.032103537864323538: 1, 0.032099702931708288: 1, 0.032093414182727757: 1, 0.03209080424810503: 1, 0.032087644294983571: 1, 0.03208724346907: 1, 0.03208641103721261: 1, 0.032081336213547001: 1, 0.032080487919319778: 1, 0.032079798310823866: 1, 0.032072176202028881: 1, 0.032069024109381832: 1, 0.032065840750104407: 1, 0.032058093283021873: 1, 0.032057460939026672: 1, 0.032053703643796255: 1, 0.032049744276665466: 1, 0.032045646037303858: 1, 0.032036629712966072: 1, 0.032034672468711389: 1, 0.032032772098621147: 1, 0.032028801764135632: 1, 0.032027935657517104: 1, 0.032025214523452285: 1, 0.0320237488522256: 1, 0.032022657908096011: 1, 0.032014343107406695: 1, 0.032000336273314153: 1, 0.031997097919857678: 1, 0.031996596883386727: 1, 0.031996094100754109: 1, 0.031991479509388701: 1, 0.031983982449283591: 1, 0.031981227446930688: 1, 0.031980198130844767: 1, 0.031978065184963038: 1, 0.031976189794070659: 1, 0.031974628748498012: 1, 0.031974318938853767: 1, 0.031971449019780218: 1, 0.031970592014334595: 1, 0.031969925655982182: 1, 0.031968210187581315: 1, 0.031968102086024366: 1, 0.031965429512270112: 1, 0.031959932428483495: 1, 0.031959233201962339: 1, 0.031956679219567422: 1, 0.031954396684045858: 1, 0.031951896261210255: 1, 0.031951582447490481: 1, 0.031949932472610965: 1, 0.031944339932949761: 1, 0.03194219006118805: 1, 0.031937628787007392: 1, 0.031936578609174371: 1, 0.031935156425741906: 1, 0.031929908113520589: 1, 0.031927121686093893: 1, 0.031923865750075012: 1, 0.031922015808568807: 1, 0.031920371972474486: 1, 0.031916986684357662: 1, 0.031916522486008639: 1, 0.031916314268877526: 1, 0.031915704224321703: 1, 0.031914449610694361: 1, 0.031913367575785619: 1, 0.031906649214856447: 1, 0.031902954576536698: 1, 0.031901164742408228: 1, 0.031897501065080998: 1, 0.0318972508689086: 1, 0.031894672479949579: 1, 0.031889242114330141: 1, 0.031885980163024651: 1, 0.031885521044740545: 1, 0.031883691088364939: 1, 0.031882310628557564: 1, 0.031880688057447308: 1, 0.031878709289575209: 1, 0.031877142328970105: 1, 0.031876911768342314: 1, 0.031876613286671844: 1, 0.031871669734382893: 1, 0.031868840254430694: 1, 0.031866826607650174: 1, 0.031863910068592405: 1, 0.031855506773076636: 1, 0.031853802913536143: 1, 0.031850175181879707: 1, 0.031849780626442482: 1, 0.0318479671112206: 1, 0.031846527957070089: 1, 0.031840827964417923: 1, 0.031838562411267007: 1, 0.031833529519383896: 1, 0.031829034133432639: 1, 0.031828287071595421: 1, 0.031824881207907454: 1, 0.03179408460062097: 1, 0.031793654918714588: 1, 0.031787774653649951: 1, 0.03178086499779207: 1, 0.031780083357475626: 1, 0.031775003159481105: 1, 0.031774104473818371: 1, 0.031770928197551562: 1, 0.03176925236560818: 1, 0.031769133381119523: 1, 0.031753748241101561: 1, 0.031753742641441707: 1, 0.031745101864182716: 1, 0.031740806233282515: 1, 0.031737637043008027: 1, 0.031732044428156518: 1, 0.031730422818428722: 1, 0.031730273120096415: 1, 0.031727347331884433: 1, 0.031724741514735269: 1, 0.031724381481629663: 1, 0.031721707014569236: 1, 0.031721556231494835: 1, 0.031720310231851179: 1, 0.031717817345645778: 1, 0.031713356874434773: 1, 0.031710249265166066: 1, 0.03170938174751857: 1, 0.031708171302871041: 1, 0.031700998026768991: 1, 0.031697914105212874: 1, 0.03169334605734498: 1, 0.03168967861097223: 1, 0.031687732582829128: 1, 0.031680424385240602: 1, 0.031670561690432648: 1, 0.031668570138727287: 1, 0.031665920614437092: 1, 0.031665834967955053: 1, 0.031656323572588844: 1, 0.03164066515813975: 1, 0.031633540704361404: 1, 0.031633398829342518: 1, 0.031632167593362112: 1, 0.031627549161393202: 1, 0.031623264211835644: 1, 0.031623137450377391: 1, 0.03161766874089101: 1, 0.031616265707550634: 1, 0.031615637083230543: 1, 0.031612665375266087: 1, 0.031608214516416044: 1, 0.031604959099609885: 1, 0.031604663729685539: 1, 0.031602305125092538: 1, 0.031601399870835864: 1, 0.031599924406790471: 1, 0.031598863029332229: 1, 0.031597567238659197: 1, 0.031592718460544449: 1, 0.031592373609988102: 1, 0.03159008174021509: 1, 0.03158937522912849: 1, 0.031584200129735091: 1, 0.031572602008163142: 1, 0.031571439644964248: 1, 0.031570417319155428: 1, 0.031564321194232879: 1, 0.031558450499347468: 1, 0.031557727088476276: 1, 0.031554350223158889: 1, 0.031553831987293363: 1, 0.031546377579896923: 1, 0.031539899279464399: 1, 0.031539404641190316: 1, 0.031531827508315811: 1, 0.031529816869994773: 1, 0.031522929560406782: 1, 0.03151107011877391: 1, 0.031505486246179215: 1, 0.031498993006666511: 1, 0.031496899646654822: 1, 0.031495722375938992: 1, 0.031490837900068153: 1, 0.031489466235256204: 1, 0.031482868666775639: 1, 0.031479440373769693: 1, 0.031469344322392741: 1, 0.031468346731406867: 1, 0.031462653225428114: 1, 0.031459909652721794: 1, 0.031444009477457104: 1, 0.031437912814046537: 1, 0.031426566171245902: 1, 0.03142342790013903: 1, 0.031398936535659276: 1, 0.031398245449091311: 1, 0.031396088843891563: 1, 0.031393903161847196: 1, 0.031384086948046973: 1, 0.031380861097015697: 1, 0.031380220413173052: 1, 0.031377998429719105: 1, 0.03137428668576487: 1, 0.031373532340991855: 1, 0.031372366005022592: 1, 0.031370372206066532: 1, 0.031368869921526737: 1, 0.031368500962465733: 1, 0.031368321533673985: 1, 0.031366739346255806: 1, 0.031362939575743612: 1, 0.031362794841518368: 1, 0.03135336385572652: 1, 0.031351422831234182: 1, 0.031351415238130655: 1, 0.031347931140728355: 1, 0.031345970336393365: 1, 0.03134558002288669: 1, 0.031343456048896011: 1, 0.031334064186495564: 1, 0.031332441575463083: 1, 0.031329403931236663: 1, 0.031328613389241824: 1, 0.03132781963155478: 1, 0.031327581137337551: 1, 0.031326139608686826: 1, 0.031318843567552129: 1, 0.031318687441797756: 1, 0.031314101484738496: 1, 0.031313347436307308: 1, 0.031309071144665093: 1, 0.031304402828276366: 1, 0.031297704446466491: 1, 0.031289139116581953: 1, 0.03128256164646339: 1, 0.031281658309447131: 1, 0.03128023336242701: 1, 0.031278722521333964: 1, 0.031272067330756353: 1, 0.031271140815123465: 1, 0.031270067074889843: 1, 0.031268774707421829: 1, 0.031262233162242282: 1, 0.031262055392055163: 1, 0.03126083081496929: 1, 0.0312604818812659: 1, 0.031259842266513349: 1, 0.031258539319403561: 1, 0.031255009146836689: 1, 0.031254128439103794: 1, 0.031249643311876643: 1, 0.031245289744076768: 1, 0.031243804365046417: 1, 0.031231412634562875: 1, 0.031228332670785293: 1, 0.031226356843322981: 1, 0.031226204845685834: 1, 0.031222260814507703: 1, 0.031219188029059528: 1, 0.031193563656606294: 1, 0.031192864036648577: 1, 0.031186108556271314: 1, 0.031184383577667823: 1, 0.031182752479646528: 1, 0.031178786055675083: 1, 0.03117739857554094: 1, 0.031166283349766351: 1, 0.031153354371519761: 1, 0.031151424803185467: 1, 0.031142341320802746: 1, 0.031141271470914868: 1, 0.031139682940397147: 1, 0.031139000303932924: 1, 0.031137354282521033: 1, 0.03113441483444563: 1, 0.031127288407231751: 1, 0.031119652560384844: 1, 0.031119137453042043: 1, 0.031117744064195433: 1, 0.031114314294268218: 1, 0.031108758036718937: 1, 0.0310956074064332: 1, 0.031094058367468418: 1, 0.031084777720779715: 1, 0.031080380858671437: 1, 0.031075222660405535: 1, 0.031073924140609797: 1, 0.031071117071280727: 1, 0.031065597221087968: 1, 0.031064766870904089: 1, 0.031063132427490873: 1, 0.031053897246551623: 1, 0.031049927732650626: 1, 0.031043740621921456: 1, 0.031036799097903869: 1, 0.031035005782471283: 1, 0.031020944757737437: 1, 0.031014339434060796: 1, 0.03101304702024895: 1, 0.031007991948337761: 1, 0.030997667254874763: 1, 0.0309903792123358: 1, 0.030987949551787061: 1, 0.030983800821372129: 1, 0.030983225000706101: 1, 0.030979955295070243: 1, 0.030978361610987215: 1, 0.030977303253537342: 1, 0.030969133405960213: 1, 0.030968808798917627: 1, 0.030965234646127965: 1, 0.030964435144299376: 1, 0.030960090407526016: 1, 0.03094036679357811: 1, 0.030939833778474493: 1, 0.030927099256065276: 1, 0.030922921995787698: 1, 0.030922858631138358: 1, 0.030916342170329628: 1, 0.030914933478420684: 1, 0.030913194493108: 1, 0.03091288449528274: 1, 0.030912372821344517: 1, 0.030896769635014233: 1, 0.030891327471288005: 1, 0.030887902951535613: 1, 0.030881039058993517: 1, 0.030877082707402255: 1, 0.030870693210421175: 1, 0.030866477180885473: 1, 0.030861327099543871: 1, 0.03085825094778967: 1, 0.030849012045103579: 1, 0.030848747870772148: 1, 0.030843255724377669: 1, 0.030840990270219155: 1, 0.030835823853107902: 1, 0.030834862228592122: 1, 0.030832062985470879: 1, 0.030821435020404912: 1, 0.030816635092275849: 1, 0.030816178347428454: 1, 0.030812975516021256: 1, 0.03081108848949261: 1, 0.030810002190392677: 1, 0.030805993952597602: 1, 0.030804403263373574: 1, 0.030801894962128928: 1, 0.030793897299483713: 1, 0.030791152243166628: 1, 0.030790553769407564: 1, 0.030784694400278815: 1, 0.030783237174658432: 1, 0.030781546669908538: 1, 0.030780873956787833: 1, 0.030770335971547963: 1, 0.030769260600015922: 1, 0.030765997969784666: 1, 0.030761844852451242: 1, 0.030759103635411997: 1, 0.030759029057100491: 1, 0.030752173231582813: 1, 0.030752109074665697: 1, 0.030744906633801757: 1, 0.030740879386947424: 1, 0.030737702094809853: 1, 0.03073709269565519: 1, 0.030730426397158152: 1, 0.030729646980667102: 1, 0.030717200146415352: 1, 0.030710140439274034: 1, 0.030695784696603834: 1, 0.030677540023271246: 1, 0.030675330277255018: 1, 0.030673006256299307: 1, 0.030666115960970484: 1, 0.030663378617016505: 1, 0.030662194520620564: 1, 0.030657468033011677: 1, 0.030654758180817619: 1, 0.030654574651754717: 1, 0.030652071184346534: 1, 0.030644779989361853: 1, 0.030642280924451586: 1, 0.030641227378380473: 1, 0.03063049884585627: 1, 0.030627457231306304: 1, 0.030619709702866555: 1, 0.030618138884736336: 1, 0.030610527578219138: 1, 0.030609535391909016: 1, 0.030604087416869076: 1, 0.030603545633359881: 1, 0.030599903426007886: 1, 0.030588622230163915: 1, 0.03058861944007453: 1, 0.03057929026015822: 1, 0.030578964288315497: 1, 0.030577362865789211: 1, 0.030570645100355263: 1, 0.030570427693538748: 1, 0.030564544358520487: 1, 0.030560541143066087: 1, 0.030543310844654233: 1, 0.030536238911061175: 1, 0.030533009848155053: 1, 0.030531633050985267: 1, 0.030529702749840553: 1, 0.030527623492863361: 1, 0.030523120274820993: 1, 0.030523109854558729: 1, 0.030513948206507151: 1, 0.030511638709889662: 1, 0.030511031327870752: 1, 0.030510538835075006: 1, 0.030502682136108884: 1, 0.030497456837634856: 1, 0.030497184467310055: 1, 0.030491324952222613: 1, 0.030488489004746246: 1, 0.030486553360289378: 1, 0.030485911868918407: 1, 0.030483913071197546: 1, 0.03047983268719992: 1, 0.030478275354462538: 1, 0.030476243062108763: 1, 0.030475168354633975: 1, 0.030474749700907394: 1, 0.030472430508604882: 1, 0.030464028244579333: 1, 0.030461498840697071: 1, 0.030457901648878103: 1, 0.030452670036236563: 1, 0.03044709226659386: 1, 0.030441835356045499: 1, 0.030435829118530974: 1, 0.030435528433720448: 1, 0.030434740258652303: 1, 0.03043037869593429: 1, 0.030426550869035278: 1, 0.030424500291589992: 1, 0.030420458308580055: 1, 0.030414813427500909: 1, 0.030412329998561107: 1, 0.030404463360360127: 1, 0.030402385016349433: 1, 0.03040116629083775: 1, 0.030397718353962627: 1, 0.030385533330412832: 1, 0.030384773437727587: 1, 0.030381059721786032: 1, 0.030375327730888389: 1, 0.030374449828398712: 1, 0.030366667144739901: 1, 0.030357035841699659: 1, 0.030355591838797491: 1, 0.030354047660924161: 1, 0.030345433139191927: 1, 0.030344887453098691: 1, 0.030342977957002939: 1, 0.030340002789505112: 1, 0.03033983642639472: 1, 0.030339732525841462: 1, 0.030335188275491462: 1, 0.030333150588852859: 1, 0.030323416933638565: 1, 0.030323334613948719: 1, 0.030319439920749629: 1, 0.030319009345069037: 1, 0.030317262836676462: 1, 0.03031335276040166: 1, 0.030312194446299165: 1, 0.030306943505503014: 1, 0.03030402111975632: 1, 0.030302693927054532: 1, 0.030301520237813073: 1, 0.030299358912019746: 1, 0.030288467697106029: 1, 0.03028814446994247: 1, 0.030287459478012674: 1, 0.030284282589043122: 1, 0.030284275511182929: 1, 0.030283076449555611: 1, 0.03027118931056608: 1, 0.030270586258727163: 1, 0.030262956643310843: 1, 0.030258424705628475: 1, 0.030247513399503587: 1, 0.030244344161681584: 1, 0.030241674382269879: 1, 0.030238940859487674: 1, 0.030236129298491336: 1, 0.030232333083910209: 1, 0.030230135212066019: 1, 0.030226006495562147: 1, 0.030223048732254135: 1, 0.030220024412427198: 1, 0.03021909088581385: 1, 0.030218399101686742: 1, 0.030213788443210491: 1, 0.030199143282318163: 1, 0.030189491123859508: 1, 0.030187821316074712: 1, 0.030184221223162833: 1, 0.0301802428298346: 1, 0.030175362125983884: 1, 0.030173274633020497: 1, 0.030172036797232973: 1, 0.030171516845658625: 1, 0.030164652660377423: 1, 0.03016379108007949: 1, 0.030158780846009849: 1, 0.030157967543327523: 1, 0.030156445624202211: 1, 0.030151310349974269: 1, 0.030148560490731408: 1, 0.030144009041457552: 1, 0.030128003937247898: 1, 0.030118584523215301: 1, 0.030113977355859311: 1, 0.030103765851560556: 1, 0.030102485112807414: 1, 0.030100930076222554: 1, 0.030100050205490392: 1, 0.030095282766740748: 1, 0.030092168292670626: 1, 0.030088796156019639: 1, 0.030086272654514745: 1, 0.030074566794290304: 1, 0.030073596401942959: 1, 0.030070644518241572: 1, 0.03007040449126009: 1, 0.030068122771949628: 1, 0.030066030515037544: 1, 0.030062734861149083: 1, 0.030062732694231386: 1, 0.030062465532743471: 1, 0.030056339188299204: 1, 0.030053910207082112: 1, 0.030040402325384068: 1, 0.030038668615090348: 1, 0.030033917127174917: 1, 0.030033015176553629: 1, 0.030027221150996899: 1, 0.030023856276527063: 1, 0.030018647224581849: 1, 0.030016328678577914: 1, 0.030008414138781872: 1, 0.030002813823653194: 1, 0.030001128653020688: 1, 0.029997753712039749: 1, 0.029995671267227297: 1, 0.029986434108214995: 1, 0.029978456308178726: 1, 0.029976150548522793: 1, 0.029974592435058345: 1, 0.029966866814909048: 1, 0.029964092801717239: 1, 0.029962982627864052: 1, 0.02996125804571536: 1, 0.029959767155453058: 1, 0.029959501927271825: 1, 0.029957667939550642: 1, 0.029956387132922813: 1, 0.029955359605336396: 1, 0.029952255991114625: 1, 0.029943206589514548: 1, 0.029942990800159018: 1, 0.029942063469975716: 1, 0.029941214778737443: 1, 0.029936880406197831: 1, 0.02993134044059588: 1, 0.029931135550759831: 1, 0.029929843503740287: 1, 0.029929368998560371: 1, 0.029908592031426602: 1, 0.029903450654387462: 1, 0.029891191305778102: 1, 0.029890199848684441: 1, 0.029883012960435162: 1, 0.029877007932125943: 1, 0.029867757167443956: 1, 0.029857678435966262: 1, 0.029857385994430264: 1, 0.029853329599675328: 1, 0.029848684398688062: 1, 0.029843624497544363: 1, 0.029839595055258732: 1, 0.029836531053656502: 1, 0.029835672762361033: 1, 0.029834937461748444: 1, 0.02983153971285744: 1, 0.029828306967665669: 1, 0.029827488915601663: 1, 0.029827022376180817: 1, 0.029826989100331918: 1, 0.02981690163380862: 1, 0.029808466531095552: 1, 0.029805495446982858: 1, 0.029799760440279939: 1, 0.029798233721104572: 1, 0.029797975428303793: 1, 0.02979727790749493: 1, 0.02979646198940275: 1, 0.029789054256249389: 1, 0.029785755573561602: 1, 0.029781366944673596: 1, 0.029771343035602634: 1, 0.029769220138048291: 1, 0.029768947514737937: 1, 0.029766796036779616: 1, 0.029763923386004816: 1, 0.029758680466444167: 1, 0.029758632063679846: 1, 0.029756413903982544: 1, 0.029753299983451602: 1, 0.029748370812338276: 1, 0.029740101944512858: 1, 0.029734675860069549: 1, 0.029731841374432411: 1, 0.029731436381742717: 1, 0.029731345032955506: 1, 0.029729522587764366: 1, 0.029728902420440854: 1, 0.029728116506766725: 1, 0.029726483133436427: 1, 0.029726279265416919: 1, 0.029717407646863439: 1, 0.029709858394334335: 1, 0.02970846470956353: 1, 0.029706340474506363: 1, 0.029705487999861811: 1, 0.029697123087923244: 1, 0.029696962423883359: 1, 0.029693071507930525: 1, 0.029691805870847791: 1, 0.029686148153583419: 1, 0.029682026275332347: 1, 0.029681830245181361: 1, 0.029677887098060896: 1, 0.029676926562451945: 1, 0.029673117411251091: 1, 0.029668915853026976: 1, 0.029668652406038658: 1, 0.029668557645735609: 1, 0.029668251733569847: 1, 0.029660849234503066: 1, 0.029660234451800379: 1, 0.029654918038649652: 1, 0.029654514488025131: 1, 0.029653494410353604: 1, 0.029652663303565314: 1, 0.02964768237385167: 1, 0.029647419672361404: 1, 0.029646731162778467: 1, 0.0296420322788149: 1, 0.029641868670148314: 1, 0.029637725334190325: 1, 0.029636976565128662: 1, 0.029636754576670664: 1, 0.029633826543949558: 1, 0.029632664921280284: 1, 0.029630539572274402: 1, 0.029619119124716042: 1, 0.02961596281345235: 1, 0.02961477742992244: 1, 0.029614143508647828: 1, 0.029608860994182987: 1, 0.029602465173397187: 1, 0.029601622072628869: 1, 0.029595996917154761: 1, 0.029593259032552666: 1, 0.029590845203210078: 1, 0.029590128663913765: 1, 0.029588240652066403: 1, 0.02958516288985226: 1, 0.029576774247152209: 1, 0.029572666235499707: 1, 0.029571581675446639: 1, 0.029566394489891897: 1, 0.02956590270866144: 1, 0.029565291973409458: 1, 0.029561626515678049: 1, 0.02955591705777115: 1, 0.029552885063199363: 1, 0.029552076033017238: 1, 0.029549481338840944: 1, 0.029546631242548561: 1, 0.029546141656718955: 1, 0.029545703256610406: 1, 0.029542924075111238: 1, 0.029534343481637436: 1, 0.029531624275443841: 1, 0.029529613267680062: 1, 0.029528709930771696: 1, 0.029528377850355045: 1, 0.029527423649572459: 1, 0.029520873125475522: 1, 0.029519933566277492: 1, 0.029516298242597851: 1, 0.029507266331267948: 1, 0.029504505269166564: 1, 0.029499239755081848: 1, 0.029497133542619937: 1, 0.029496728410353484: 1, 0.02949631409059443: 1, 0.029492132741566444: 1, 0.029487679883625904: 1, 0.029480157775595154: 1, 0.029472136356103091: 1, 0.029467152236048021: 1, 0.029465895426339005: 1, 0.029462700715163583: 1, 0.029460440452880356: 1, 0.029459926262621797: 1, 0.029458621063103735: 1, 0.029456082640402795: 1, 0.02945344260085949: 1, 0.029441422454413068: 1, 0.029439199014581221: 1, 0.029429416254099436: 1, 0.029425176193920623: 1, 0.0294216293794285: 1, 0.029421565701759033: 1, 0.029414915754466569: 1, 0.029413614088912261: 1, 0.029406892998015875: 1, 0.029406211486213651: 1, 0.029402469315761418: 1, 0.029401587833576388: 1, 0.02940122671046724: 1, 0.029400695719219078: 1, 0.029399728281784394: 1, 0.0293973072818122: 1, 0.029393906901604254: 1, 0.029392557273057337: 1, 0.029392053125711373: 1, 0.029389548837687383: 1, 0.029389531405751384: 1, 0.029385771829585048: 1, 0.029375324271695782: 1, 0.029372893380561919: 1, 0.02936913089872913: 1, 0.029364916904379382: 1, 0.029362352520044415: 1, 0.029359990900153322: 1, 0.02935793099266603: 1, 0.029355847208337955: 1, 0.029353468205369982: 1, 0.029352267284128847: 1, 0.02935052264569607: 1, 0.029350237284940552: 1, 0.02934370184624957: 1, 0.029341107783652599: 1, 0.029339266260646299: 1, 0.029336213879031146: 1, 0.029334711472036132: 1, 0.029332118829757507: 1, 0.029329845390182886: 1, 0.029329471698026459: 1, 0.029322230205813288: 1, 0.029321894533904658: 1, 0.029313972135958866: 1, 0.029312956514857047: 1, 0.029312127261939644: 1, 0.029311277296438031: 1, 0.029303739263255385: 1, 0.029302677181264128: 1, 0.029298825929742273: 1, 0.029294700500347833: 1, 0.029292962300581947: 1, 0.029286065495496817: 1, 0.029285031861606955: 1, 0.029273845226899586: 1, 0.029273008318779693: 1, 0.029272888002125245: 1, 0.029272691780873852: 1, 0.029269479325142417: 1, 0.029268362720056743: 1, 0.029266028468998936: 1, 0.029263940635602718: 1, 0.029260504392393076: 1, 0.029255473444104223: 1, 0.029248037809882749: 1, 0.029244718134151901: 1, 0.02924271412873531: 1, 0.029237644594552203: 1, 0.02923686619102658: 1, 0.029232610449398563: 1, 0.029228376004296043: 1, 0.029224314631007643: 1, 0.029221805018522722: 1, 0.029219391531951966: 1, 0.029213444842651454: 1, 0.029213442259168963: 1, 0.029209274327657582: 1, 0.029208289024107728: 1, 0.029207635509648347: 1, 0.02920281659386325: 1, 0.02920254278031803: 1, 0.029200651432550555: 1, 0.029198781930763112: 1, 0.029197565143761435: 1, 0.029196226817251883: 1, 0.029193330879969455: 1, 0.029190112674997392: 1, 0.029187688309431754: 1, 0.029187427208829275: 1, 0.029174040761827953: 1, 0.029171866539867666: 1, 0.029169732042772456: 1, 0.029168632535272857: 1, 0.029164170785353577: 1, 0.029157118779274536: 1, 0.029155133405362126: 1, 0.029152585429926998: 1, 0.029151272748505264: 1, 0.029143992566632262: 1, 0.029139536609242768: 1, 0.029139358404051907: 1, 0.029130630738370158: 1, 0.029128094483954092: 1, 0.02912142774472147: 1, 0.029120087080928756: 1, 0.02911749463675813: 1, 0.02911180975352402: 1, 0.029106856341025961: 1, 0.029106419337812637: 1, 0.029104162854132028: 1, 0.029101953528881046: 1, 0.029099767393583217: 1, 0.029098669171296797: 1, 0.029088218701893993: 1, 0.02907741152727375: 1, 0.029072822863207223: 1, 0.029072673403996781: 1, 0.029072109344950782: 1, 0.029062034048358582: 1, 0.029057220918683527: 1, 0.029049972118770511: 1, 0.029043245640601678: 1, 0.029042304761429362: 1, 0.029042103690569917: 1, 0.029041395893521428: 1, 0.029040379572856906: 1, 0.029038909015694635: 1, 0.029034217936453884: 1, 0.029025436227473778: 1, 0.029024360528952065: 1, 0.029024075205063869: 1, 0.029022576016751598: 1, 0.029013946015091965: 1, 0.02901268461617091: 1, 0.02900568412555735: 1, 0.029002736388925809: 1, 0.029002272884676061: 1, 0.02900101851337137: 1, 0.028996664596419214: 1, 0.028989462828133673: 1, 0.028987008900977208: 1, 0.02898397185658063: 1, 0.028982473709132525: 1, 0.028981579612822741: 1, 0.028981343835893923: 1, 0.028974852479158847: 1, 0.028971307026130374: 1, 0.028968645064181151: 1, 0.028967817030773273: 1, 0.028963738778604618: 1, 0.028963441239876674: 1, 0.0289591528535337: 1, 0.02895636106223522: 1, 0.028952288570327011: 1, 0.02894181995152673: 1, 0.028935440783826011: 1, 0.028916905880096409: 1, 0.028912656820798466: 1, 0.028910221437141732: 1, 0.028905789222978342: 1, 0.028905445488257457: 1, 0.028903258165592374: 1, 0.028900185225225562: 1, 0.028898527074763133: 1, 0.028897952499120968: 1, 0.0288967047855418: 1, 0.02889172551425747: 1, 0.028891047709813648: 1, 0.028890556279155141: 1, 0.028888791176705245: 1, 0.028887026928995294: 1, 0.028885790353249667: 1, 0.028881761957799831: 1, 0.028876451716568899: 1, 0.028872770270910734: 1, 0.028869924411725471: 1, 0.028868924336665967: 1, 0.02886695093876698: 1, 0.028857017986763215: 1, 0.028856690919120066: 1, 0.02885371702628927: 1, 0.028850751225004839: 1, 0.028828640553774851: 1, 0.02882605006699239: 1, 0.028818144944102786: 1, 0.028817414492407163: 1, 0.028812815212091808: 1, 0.028806963678069317: 1, 0.02880226339246008: 1, 0.028799799321108002: 1, 0.02879565458582907: 1, 0.02879349894513672: 1, 0.028788571571436324: 1, 0.028788321980024099: 1, 0.028787772402371691: 1, 0.028784921154981585: 1, 0.028773685901314693: 1, 0.028771672271063371: 1, 0.028767527272937514: 1, 0.02876624464629126: 1, 0.028762189963572406: 1, 0.028758975753517407: 1, 0.028758200981508976: 1, 0.02875545215929223: 1, 0.028754277553589641: 1, 0.028753560729386299: 1, 0.028748322893849897: 1, 0.028739629584185328: 1, 0.028737778263270744: 1, 0.028734674698179113: 1, 0.028723938991622032: 1, 0.028722663703717753: 1, 0.028721403169709288: 1, 0.028720580517900985: 1, 0.028720319914385312: 1, 0.028718437606170953: 1, 0.028714452588344722: 1, 0.028708204998122148: 1, 0.028706344823213756: 1, 0.028704575292040894: 1, 0.028703078748398263: 1, 0.028697429137099686: 1, 0.028693342496661018: 1, 0.028690296070237979: 1, 0.028689154350282076: 1, 0.028685528878954446: 1, 0.028679427232975542: 1, 0.028678413765582139: 1, 0.028677830819648614: 1, 0.028675043471493411: 1, 0.028673857655980187: 1, 0.028671875749788481: 1, 0.028666851192684889: 1, 0.028663867950780235: 1, 0.028651242796006528: 1, 0.028650349914306907: 1, 0.028648844520076253: 1, 0.028646942251509613: 1, 0.028646329191392698: 1, 0.02864578044059405: 1, 0.028643184987815679: 1, 0.0286398697871743: 1, 0.028638649522386438: 1, 0.028635344926502791: 1, 0.028634945076945834: 1, 0.028628816872591143: 1, 0.028626899987878127: 1, 0.028622759707299918: 1, 0.028617490551333814: 1, 0.028617198850834337: 1, 0.028613353666659288: 1, 0.028612835245931192: 1, 0.028612710600502925: 1, 0.028607654520990709: 1, 0.028597905166436878: 1, 0.028592905125684753: 1, 0.028588721808834358: 1, 0.028583615968339984: 1, 0.028577415090229562: 1, 0.028575637210069713: 1, 0.028573792495408267: 1, 0.028572218835010571: 1, 0.028571674384509527: 1, 0.028568809886608142: 1, 0.028565010667871472: 1, 0.028564604842018122: 1, 0.028561722166387866: 1, 0.028561071787219137: 1, 0.028560474384416737: 1, 0.028554951373476717: 1, 0.028554073987547501: 1, 0.028553255139380816: 1, 0.028546074978632225: 1, 0.02854301723938394: 1, 0.028539906208523723: 1, 0.02853929127034276: 1, 0.028526076609045839: 1, 0.028525056388069275: 1, 0.028522772039139839: 1, 0.028522350619515843: 1, 0.028517106368519736: 1, 0.028516742066663978: 1, 0.028508020652206152: 1, 0.028505541329417988: 1, 0.028503757904466034: 1, 0.028502603394123333: 1, 0.028500548838422755: 1, 0.028496079420961242: 1, 0.028495215400775868: 1, 0.028491161631505318: 1, 0.028489746338278159: 1, 0.028487942474472026: 1, 0.028483990774931654: 1, 0.028477169848147649: 1, 0.028477058732556952: 1, 0.028476913464117612: 1, 0.028465327840507683: 1, 0.028449506020800531: 1, 0.028445917063565633: 1, 0.028444941863261165: 1, 0.028444410965453588: 1, 0.028443806664598444: 1, 0.028442884810428604: 1, 0.028442312584451897: 1, 0.028441176292425738: 1, 0.028435788647851686: 1, 0.028431060235889701: 1, 0.028428937822989081: 1, 0.028422378116053255: 1, 0.028414599483580522: 1, 0.028412867103041944: 1, 0.028410266461472104: 1, 0.028409931088102632: 1, 0.028405876761209099: 1, 0.028405373529326199: 1, 0.028404845346338282: 1, 0.028403996416726328: 1, 0.028401231571709838: 1, 0.028398770237930051: 1, 0.028395754585195519: 1, 0.028394668422588226: 1, 0.028390471212168707: 1, 0.028383503921544689: 1, 0.028382515962399782: 1, 0.028382152627978295: 1, 0.028381362486228426: 1, 0.028377047589629795: 1, 0.028373059704664652: 1, 0.028371322772548863: 1, 0.028368827915126987: 1, 0.028368614575270405: 1, 0.028366451355742225: 1, 0.028365871594338527: 1, 0.028363830519359153: 1, 0.028348625477576578: 1, 0.028344530099501629: 1, 0.028344490624154714: 1, 0.028342701199049778: 1, 0.028341418563108744: 1, 0.028328059680006831: 1, 0.028327216391869137: 1, 0.028327156811581381: 1, 0.028314114596078466: 1, 0.028311342976432879: 1, 0.028307039479952889: 1, 0.028298775005347443: 1, 0.028295710058829818: 1, 0.028294226899925071: 1, 0.02827343529262601: 1, 0.028270874897487121: 1, 0.028259161127236049: 1, 0.028257803655939041: 1, 0.02825343105901152: 1, 0.028250591264614947: 1, 0.028241942655901443: 1, 0.028236167742459791: 1, 0.02822787194165894: 1, 0.028220737929289766: 1, 0.028218765176336629: 1, 0.02821596153276101: 1, 0.028213984393201337: 1, 0.028198478536007533: 1, 0.028195710457399232: 1, 0.028195300290887876: 1, 0.028186493037774086: 1, 0.028180874940340751: 1, 0.0281806770353423: 1, 0.028178845173636488: 1, 0.028175577673040617: 1, 0.028171740260858856: 1, 0.028170449398670531: 1, 0.028165182065008357: 1, 0.028164778752786647: 1, 0.028153989128062357: 1, 0.028149992159105634: 1, 0.028149310610312006: 1, 0.028145894466380696: 1, 0.028143149892388194: 1, 0.02814270764237763: 1, 0.028140727039267871: 1, 0.028139407827723138: 1, 0.028139062505712718: 1, 0.028136336168986781: 1, 0.028131545550181103: 1, 0.028127439337508175: 1, 0.028122737950061823: 1, 0.028117898702485551: 1, 0.028115169554920102: 1, 0.028112256877039544: 1, 0.028106441045532359: 1, 0.02810489011282797: 1, 0.028089022929827328: 1, 0.02808697281203746: 1, 0.028086443441736823: 1, 0.02808176154578753: 1, 0.028080027607405949: 1, 0.028071243934763939: 1, 0.028066710705084319: 1, 0.028060767636059615: 1, 0.028055510365254541: 1, 0.028055326642690424: 1, 0.028054251548113408: 1, 0.028048958936528433: 1, 0.028048010287567229: 1, 0.028044203269104527: 1, 0.028041376036200463: 1, 0.028037244147726726: 1, 0.028015939222935618: 1, 0.028012942217497644: 1, 0.02800828692393038: 1, 0.028004705170292611: 1, 0.028002473318549659: 1, 0.027999927739021414: 1, 0.027998586758515364: 1, 0.027997760058769094: 1, 0.02799168379278559: 1, 0.02799092725856573: 1, 0.027989031696996784: 1, 0.027986245467315297: 1, 0.027985261196554603: 1, 0.027982764147271365: 1, 0.02798012062383402: 1, 0.027973979977529168: 1, 0.027968280858325749: 1, 0.027964818557546414: 1, 0.027959863263439664: 1, 0.027959345673841195: 1, 0.027958252839463613: 1, 0.027956809940694473: 1, 0.027955982574735968: 1, 0.027952980493871259: 1, 0.027948788287038964: 1, 0.027948196002982987: 1, 0.027947401330645157: 1, 0.027946545871857194: 1, 0.027946502452009851: 1, 0.027944295751579508: 1, 0.027941457040947561: 1, 0.027937554153164405: 1, 0.027934046656078796: 1, 0.027930538770355725: 1, 0.027928423363113582: 1, 0.027927492393879184: 1, 0.02792642363533613: 1, 0.027925402051560098: 1, 0.027924302785252483: 1, 0.02792404821042848: 1, 0.027919444966287628: 1, 0.02791296508231059: 1, 0.02790879430818486: 1, 0.0279074547949189: 1, 0.027907104469065233: 1, 0.027893092174436224: 1, 0.027889325292594032: 1, 0.027888331866181532: 1, 0.027884097076976068: 1, 0.027881750654424012: 1, 0.02787861925414464: 1, 0.027876364785186097: 1, 0.027874370457348873: 1, 0.02786108928138907: 1, 0.02786064209652751: 1, 0.027857995924901333: 1, 0.027856222827283637: 1, 0.027852885049750462: 1, 0.027851279505353019: 1, 0.0278485136835845: 1, 0.027846931399096324: 1, 0.027841202593849361: 1, 0.027837514274264018: 1, 0.027828734968369292: 1, 0.027827636807980307: 1, 0.027825570392615368: 1, 0.027820296342716974: 1, 0.027810440516460172: 1, 0.027808461191279353: 1, 0.027807622441941099: 1, 0.027804647149236934: 1, 0.027804444711122211: 1, 0.027795024116402764: 1, 0.027784626229594073: 1, 0.027784196919631986: 1, 0.027782215370803373: 1, 0.027781302889894496: 1, 0.027773172123687066: 1, 0.027769706296043476: 1, 0.027766056141266073: 1, 0.027762613445372404: 1, 0.027761211462689048: 1, 0.027758774899490201: 1, 0.02774767195953225: 1, 0.02773462468602015: 1, 0.02773342941378866: 1, 0.027731893876153643: 1, 0.02773124098626251: 1, 0.027724067816735126: 1, 0.027722249111250704: 1, 0.027717857053975437: 1, 0.027715688292427119: 1, 0.027714659642769104: 1, 0.027712584099163717: 1, 0.027711956623553077: 1, 0.027705667926452703: 1, 0.027704072768979539: 1, 0.027703721097607339: 1, 0.027703547525759986: 1, 0.02770045995724104: 1, 0.027698080541244379: 1, 0.027697912001661284: 1, 0.027696711849584322: 1, 0.027696088972617754: 1, 0.02769366552838623: 1, 0.027693511202162631: 1, 0.027691907384608881: 1, 0.027689659996294122: 1, 0.027687789984854529: 1, 0.027679132436788684: 1, 0.027673263158937152: 1, 0.027665227105381832: 1, 0.027653883466501036: 1, 0.027652337133589312: 1, 0.027652131196354516: 1, 0.027639165745265298: 1, 0.02763889733459797: 1, 0.0276388472302719: 1, 0.027638472609899264: 1, 0.027634596934612874: 1, 0.027633603945025557: 1, 0.027632554491466774: 1, 0.02762982114068099: 1, 0.027626882746994996: 1, 0.027617899739505611: 1, 0.027615487113946909: 1, 0.027614117164320134: 1, 0.027604584409860952: 1, 0.027603743325157391: 1, 0.027602739469909984: 1, 0.027597550233787502: 1, 0.027596170475803879: 1, 0.027595253494853866: 1, 0.027592258064186595: 1, 0.027589858404896875: 1, 0.027586118278219322: 1, 0.027583953515731494: 1, 0.027581661314490098: 1, 0.027574494851659782: 1, 0.027571181191598255: 1, 0.027567678161235367: 1, 0.027562321843291056: 1, 0.027559046684955967: 1, 0.02755865002007973: 1, 0.027556406140790385: 1, 0.02754524082301462: 1, 0.027545142822282282: 1, 0.027542163647579991: 1, 0.027535699273447126: 1, 0.027532046103457233: 1, 0.027531579579317591: 1, 0.027530112595255552: 1, 0.027528346971701683: 1, 0.027528145427555953: 1, 0.027525423927550519: 1, 0.027524884496615967: 1, 0.027523424768563669: 1, 0.02752130020750277: 1, 0.027520807176479707: 1, 0.027516223976566542: 1, 0.027516059955197222: 1, 0.027515651902695091: 1, 0.027510870076943285: 1, 0.027508626486537749: 1, 0.027506460405928648: 1, 0.027505086535067266: 1, 0.027503650915152535: 1, 0.027503324453160422: 1, 0.027491359942783098: 1, 0.02749024864998539: 1, 0.027486771936227103: 1, 0.027484495420506825: 1, 0.027478685478508229: 1, 0.027474497173313912: 1, 0.027473294613002616: 1, 0.027471410540178473: 1, 0.027465004260847248: 1, 0.027464356365309035: 1, 0.027462699361668504: 1, 0.027459576397889339: 1, 0.027458218661463495: 1, 0.027445930350516703: 1, 0.02744097212313059: 1, 0.027439697240732058: 1, 0.027435559936369262: 1, 0.027435162109211441: 1, 0.027434510838698439: 1, 0.027431741207216514: 1, 0.027429333397954427: 1, 0.027428853879771856: 1, 0.027428176490528401: 1, 0.027417669784216843: 1, 0.027414440923659238: 1, 0.02741077744161164: 1, 0.027404905336879129: 1, 0.02739811435326913: 1, 0.027397524344500258: 1, 0.02739498828964175: 1, 0.027391361052152886: 1, 0.027389103567549731: 1, 0.027369739575976153: 1, 0.027359208298929783: 1, 0.027355358829093353: 1, 0.027351715621258037: 1, 0.027350772698597273: 1, 0.027344976361439358: 1, 0.027343877051246142: 1, 0.027331707182424683: 1, 0.027328435929719813: 1, 0.027324607500660788: 1, 0.0273230765238139: 1, 0.02732227316202351: 1, 0.027316557260119681: 1, 0.027312883766379529: 1, 0.027304681414652778: 1, 0.027301185411044471: 1, 0.027291304977680737: 1, 0.027288747249819077: 1, 0.027287948647229859: 1, 0.027282769284260749: 1, 0.02728101233922171: 1, 0.027277967605459797: 1, 0.027274060529486888: 1, 0.027264609463096535: 1, 0.027264203574278487: 1, 0.027260709962834785: 1, 0.02724737793927598: 1, 0.0272473379661087: 1, 0.027231972780641517: 1, 0.027223795677319074: 1, 0.027219412649352771: 1, 0.027216943737734194: 1, 0.027216715209295243: 1, 0.027212572502242939: 1, 0.027211470515129212: 1, 0.027209918186261076: 1, 0.027204283983420913: 1, 0.027202076492593163: 1, 0.027200936196653661: 1, 0.027199851411939716: 1, 0.027191404368318427: 1, 0.0271853315830917: 1, 0.027182938212674385: 1, 0.027180027814592896: 1, 0.027179249863263706: 1, 0.027173150110242655: 1, 0.027168279213161929: 1, 0.027167381824841817: 1, 0.027158123951166908: 1, 0.02715309436367748: 1, 0.027150892563303549: 1, 0.027148556142226634: 1, 0.027144947193078951: 1, 0.027141112243864621: 1, 0.027133086968476852: 1, 0.027131933326482997: 1, 0.02713177637045024: 1, 0.027131556347854725: 1, 0.027131334877862061: 1, 0.027122136726542567: 1, 0.027120349568686059: 1, 0.027119665477885094: 1, 0.027110831962524347: 1, 0.027106046253088049: 1, 0.0271037930721688: 1, 0.027101111322103563: 1, 0.027098539964295933: 1, 0.027098479105217316: 1, 0.027095871152334663: 1, 0.027095511057948073: 1, 0.02709429877085634: 1, 0.027091447763045041: 1, 0.027082125937166412: 1, 0.027079388422880189: 1, 0.027077502587723144: 1, 0.02707747108703688: 1, 0.027077138280837913: 1, 0.027077038519018777: 1, 0.027074841447395886: 1, 0.027072961634148497: 1, 0.027072587090510383: 1, 0.027071017638973294: 1, 0.027069133046880016: 1, 0.027067538131830875: 1, 0.027065804230724196: 1, 0.027063178350468488: 1, 0.027058255442856005: 1, 0.02705160278480501: 1, 0.027048104131809667: 1, 0.027043245584477463: 1, 0.027032605964537153: 1, 0.027030278435931893: 1, 0.027027697141292745: 1, 0.027026376172609008: 1, 0.027020717352270254: 1, 0.027015921768765626: 1, 0.027014670592486627: 1, 0.027014050834119931: 1, 0.027005330299007556: 1, 0.027005067146398519: 1, 0.026998334148951982: 1, 0.026993184045357312: 1, 0.026989685485372488: 1, 0.026988776636003825: 1, 0.02698493559204734: 1, 0.026979590339863732: 1, 0.026974628083385868: 1, 0.026974320204139111: 1, 0.026974302626200819: 1, 0.026970975750222958: 1, 0.026969171671405875: 1, 0.02696234726866591: 1, 0.026961200040453007: 1, 0.026960398149653501: 1, 0.026959791704862589: 1, 0.026959566149139073: 1, 0.026955752780450763: 1, 0.026948862743908602: 1, 0.026947386304286728: 1, 0.026945512228184525: 1, 0.026943540620228031: 1, 0.026941078665947745: 1, 0.026918694851452599: 1, 0.026910563592201057: 1, 0.026895613051987923: 1, 0.026893548310594612: 1, 0.026893108450582855: 1, 0.026892252266375438: 1, 0.026890886412755104: 1, 0.026884861220608465: 1, 0.026883691305470053: 1, 0.026878597653186245: 1, 0.0268733530053714: 1, 0.026871045447785215: 1, 0.026867284381622447: 1, 0.026860389739361459: 1, 0.02685636270510202: 1, 0.026855651577020467: 1, 0.0268553307655734: 1, 0.026852915958933944: 1, 0.026846420677137838: 1, 0.026839175397513477: 1, 0.026837838780463308: 1, 0.026836625130715736: 1, 0.02683113550422753: 1, 0.026828695596902482: 1, 0.02682513447973657: 1, 0.026821966126125325: 1, 0.026814716074790017: 1, 0.026814051664022513: 1, 0.026803364786374122: 1, 0.026798568624498566: 1, 0.026788769900472281: 1, 0.026788699691787068: 1, 0.026781163245309894: 1, 0.026778810777234215: 1, 0.026775737378070388: 1, 0.026774814603872536: 1, 0.026773712651464138: 1, 0.026773122953990456: 1, 0.0267677402867335: 1, 0.026762436439133199: 1, 0.026761800786121642: 1, 0.026760316870711037: 1, 0.026750001373807931: 1, 0.02674969642185283: 1, 0.026747414721065378: 1, 0.026730269352126683: 1, 0.026727360617910399: 1, 0.026723283333131342: 1, 0.026719725629543493: 1, 0.026714345780164264: 1, 0.026714017593181448: 1, 0.026712421245440432: 1, 0.026710986838944968: 1, 0.026699936537270257: 1, 0.026699631139026906: 1, 0.026699629168970535: 1, 0.02669838349698455: 1, 0.026696646567521812: 1, 0.026689903370397412: 1, 0.026689654974579709: 1, 0.026688068303826883: 1, 0.026684291528336339: 1, 0.026677062837832735: 1, 0.026668363252890279: 1, 0.026666864524086391: 1, 0.026663713781985891: 1, 0.026663634180821776: 1, 0.026663030164057348: 1, 0.026662365552157809: 1, 0.026661093535523067: 1, 0.026660456732348604: 1, 0.026655110156030986: 1, 0.026639656493516489: 1, 0.026635385635272846: 1, 0.026630101336258559: 1, 0.026623424054746703: 1, 0.026618613211916886: 1, 0.026616050561436774: 1, 0.026612200417372871: 1, 0.026609430482707593: 1, 0.026606876386776217: 1, 0.026606140851238826: 1, 0.026604300534099571: 1, 0.026602224907148808: 1, 0.026601351694756262: 1, 0.026596201974821605: 1, 0.02659475350730665: 1, 0.026593536259734957: 1, 0.026589747360265065: 1, 0.02658760157688568: 1, 0.026583905536671254: 1, 0.026583041270823123: 1, 0.026580619792395677: 1, 0.026577638347007663: 1, 0.026575531385029695: 1, 0.026569064869316775: 1, 0.026568825167013661: 1, 0.026562720038999815: 1, 0.02656192769701033: 1, 0.026560911538119087: 1, 0.026559295210236634: 1, 0.026554777402750418: 1, 0.026553993357390275: 1, 0.026551324364498894: 1, 0.026530057487842644: 1, 0.02651862463732222: 1, 0.026518084828192158: 1, 0.026516993644472679: 1, 0.026507247715171808: 1, 0.026501556920144737: 1, 0.026490561172869201: 1, 0.026484874160322171: 1, 0.026484048103574919: 1, 0.026480761959309797: 1, 0.026476976310607754: 1, 0.026475815118503082: 1, 0.026475680592925432: 1, 0.026474709431596893: 1, 0.026473527891663708: 1, 0.026471547884577611: 1, 0.026462445663370419: 1, 0.026459053342435198: 1, 0.026458948576653998: 1, 0.026456473613529083: 1, 0.026451566628835979: 1, 0.026447376898717165: 1, 0.026447071927176897: 1, 0.026441544117991846: 1, 0.026439438125391464: 1, 0.026436712949622014: 1, 0.026433875616054328: 1, 0.026433296403203178: 1, 0.02643068247396415: 1, 0.0264276535370956: 1, 0.026426483934503184: 1, 0.026426271139881538: 1, 0.026425373478704453: 1, 0.026419855532877158: 1, 0.026419318003456725: 1, 0.026416002840505506: 1, 0.026415818051699527: 1, 0.026411811952835818: 1, 0.026411394433664866: 1, 0.026408082542830433: 1, 0.02640679710849092: 1, 0.026406559006241621: 1, 0.026401548441161091: 1, 0.026384179919607263: 1, 0.026369467657702074: 1, 0.026368702227555545: 1, 0.026367218431033637: 1, 0.026367058729834688: 1, 0.026364747756342032: 1, 0.026363573369176295: 1, 0.026355840547238094: 1, 0.026355112672687437: 1, 0.026354262519092585: 1, 0.026349706014444682: 1, 0.026346715250538319: 1, 0.026346064850501325: 1, 0.026335710288914026: 1, 0.026331605107565763: 1, 0.026328884718948387: 1, 0.026326051200039422: 1, 0.026324082952150309: 1, 0.026323057281227916: 1, 0.026322915583152712: 1, 0.026321611600771247: 1, 0.026316046955387817: 1, 0.026307633695036026: 1, 0.026294412122186386: 1, 0.026293910431660641: 1, 0.026290118004840678: 1, 0.026288123004220669: 1, 0.026279025426093946: 1, 0.026278879791829312: 1, 0.026273052209711358: 1, 0.026271330017676356: 1, 0.026266774172683329: 1, 0.026263562836074984: 1, 0.026245890387462868: 1, 0.026243866490389123: 1, 0.026241365210467639: 1, 0.026239247858938854: 1, 0.026235298204049212: 1, 0.02623482229427614: 1, 0.026232608921426658: 1, 0.026226452535749078: 1, 0.026225311447654224: 1, 0.02621846944878687: 1, 0.026213225264137805: 1, 0.026209947843318815: 1, 0.026202443356698642: 1, 0.026201734645511236: 1, 0.026201339978212897: 1, 0.026197190544481417: 1, 0.026194124159078271: 1, 0.026191833581365773: 1, 0.026188111154225348: 1, 0.026185492430914739: 1, 0.026180589915539055: 1, 0.026179600718115283: 1, 0.026178297713179415: 1, 0.026176034289774712: 1, 0.026170888766084345: 1, 0.026168767783706859: 1, 0.026168363191478569: 1, 0.026168045252945749: 1, 0.026160238338029138: 1, 0.026157174782867637: 1, 0.026152185777355931: 1, 0.026145080702100892: 1, 0.026144447270094538: 1, 0.026143606836761882: 1, 0.026141158079877456: 1, 0.026136744769840445: 1, 0.026132949304390155: 1, 0.026131840494569659: 1, 0.026130529900154791: 1, 0.026130113870773582: 1, 0.026129618433352139: 1, 0.026125182559491943: 1, 0.026122995397872141: 1, 0.026120585135071289: 1, 0.026118283699487679: 1, 0.026114001791213419: 1, 0.026098229022915306: 1, 0.026096938254316908: 1, 0.026094284709262748: 1, 0.026088453180690585: 1, 0.02608156956644634: 1, 0.026074401010216401: 1, 0.02607025764454024: 1, 0.026065399198644042: 1, 0.026064351827163865: 1, 0.02606414707194657: 1, 0.026064124889284352: 1, 0.026057725379531643: 1, 0.026034520251319013: 1, 0.026034250291672695: 1, 0.026032158174666489: 1, 0.026028532630146907: 1, 0.026022744147352908: 1, 0.026020647578536202: 1, 0.026018300153481819: 1, 0.026018218904272274: 1, 0.026016577555346157: 1, 0.026007052421269307: 1, 0.026002941317780932: 1, 0.02600096251658595: 1, 0.025994283782320077: 1, 0.025990058074995197: 1, 0.025988279005784157: 1, 0.025987400044945333: 1, 0.025983970354878157: 1, 0.025980678125095382: 1, 0.025977652143282372: 1, 0.025969006767338064: 1, 0.02596198280725797: 1, 0.025961514949851418: 1, 0.025961084906332265: 1, 0.025954758249020254: 1, 0.025953672218052788: 1, 0.025945819087315226: 1, 0.02593531312407886: 1, 0.02592756176092895: 1, 0.025920366858085964: 1, 0.025914297922699576: 1, 0.025912958496959008: 1, 0.025911309328167223: 1, 0.02591073249152559: 1, 0.025904141594200479: 1, 0.02590377908580074: 1, 0.025898576982950054: 1, 0.025896645223901095: 1, 0.025895378887550766: 1, 0.025894437498317852: 1, 0.025892217542278235: 1, 0.025890372699482928: 1, 0.025886994416790828: 1, 0.02588528091340548: 1, 0.0258832028227532: 1, 0.025882149483635392: 1, 0.025877942717122633: 1, 0.025876913901360463: 1, 0.025872887092765435: 1, 0.025866311812018997: 1, 0.025865182296141761: 1, 0.025844787406610656: 1, 0.025843995748175596: 1, 0.025841961960169326: 1, 0.025841016422195714: 1, 0.025838166570923117: 1, 0.02583683772508372: 1, 0.02583276029318559: 1, 0.025829526851875013: 1, 0.025828170620648523: 1, 0.025826166453755323: 1, 0.025823173130357299: 1, 0.025819640487942084: 1, 0.025818632915307387: 1, 0.025809763699860051: 1, 0.025805243415448244: 1, 0.025797960681901131: 1, 0.025797164973971089: 1, 0.02579491903595351: 1, 0.025792156101351913: 1, 0.025791135931869963: 1, 0.025788558453178723: 1, 0.025779116773120406: 1, 0.025776920966120866: 1, 0.025772608225482579: 1, 0.025772102759805501: 1, 0.025770808968540761: 1, 0.025764231584366692: 1, 0.025754051807924373: 1, 0.025747823971485659: 1, 0.025733491943811221: 1, 0.025733095332977868: 1, 0.02573167519983021: 1, 0.025731000511221187: 1, 0.025720173520691995: 1, 0.025719101640545736: 1, 0.025719026362828478: 1, 0.025714824571503373: 1, 0.025709712712993556: 1, 0.02570880196293545: 1, 0.025708435371112573: 1, 0.025700146677904493: 1, 0.0256902142862456: 1, 0.025687633374157061: 1, 0.025684002840561534: 1, 0.025680978936948116: 1, 0.02567469345227932: 1, 0.025674424899808222: 1, 0.025671763512266417: 1, 0.025668975025390256: 1, 0.025668005047769591: 1, 0.025667211744264711: 1, 0.025665422236925958: 1, 0.025664169207643962: 1, 0.025661873200470399: 1, 0.025658979535911581: 1, 0.025657278424435482: 1, 0.025654390171288267: 1, 0.025653518078635945: 1, 0.025648629869160083: 1, 0.025645237920539386: 1, 0.025643185317148116: 1, 0.025643104711852931: 1, 0.025635852713225681: 1, 0.025629601769253621: 1, 0.025625676871330973: 1, 0.02561828533055989: 1, 0.025614317994451741: 1, 0.025613032971183426: 1, 0.025607903788730346: 1, 0.025605251298972568: 1, 0.0256049318595447: 1, 0.025604465600368838: 1, 0.025603133706755557: 1, 0.0256029146929296: 1, 0.025601912257720801: 1, 0.025601410802843796: 1, 0.025600796502283668: 1, 0.025600775377140842: 1, 0.025600651075357254: 1, 0.025599056539627026: 1, 0.02559647826300962: 1, 0.025595762654945616: 1, 0.025591647677306904: 1, 0.025585212654619535: 1, 0.025584270656525902: 1, 0.025580924168859383: 1, 0.025576560405536009: 1, 0.02557626367545637: 1, 0.0255760847009146: 1, 0.025573570294599342: 1, 0.025572728195404008: 1, 0.025568194952432177: 1, 0.025565858770819714: 1, 0.025564638406647338: 1, 0.025563298826071237: 1, 0.025559794462241957: 1, 0.025558035285968665: 1, 0.025557627559067868: 1, 0.025555466763368458: 1, 0.025555298669493423: 1, 0.025553517555140327: 1, 0.025552322900597099: 1, 0.025551380688360853: 1, 0.025545258520789239: 1, 0.025545091206381022: 1, 0.025543080355597766: 1, 0.025542215984441907: 1, 0.025538271374583088: 1, 0.025537708861199621: 1, 0.025535178043131809: 1, 0.02553393133862588: 1, 0.025526833643025562: 1, 0.025523169747896438: 1, 0.025519363531932245: 1, 0.025518446687713234: 1, 0.025516801263200672: 1, 0.025515873970494929: 1, 0.025515386072960632: 1, 0.025511478411729207: 1, 0.025509774750627691: 1, 0.025498508016877506: 1, 0.02549709168969358: 1, 0.025490044617082486: 1, 0.025490017160426467: 1, 0.025488264330225077: 1, 0.025480747212851297: 1, 0.02548013842774826: 1, 0.025478864937095051: 1, 0.025471581768888529: 1, 0.025471307198068848: 1, 0.025469283928234207: 1, 0.025469209596020143: 1, 0.025466718102509677: 1, 0.0254649505314418: 1, 0.025457233454109728: 1, 0.025451592881812736: 1, 0.025449678983087781: 1, 0.025434542886077334: 1, 0.02543059264919225: 1, 0.025426502625314918: 1, 0.025423180056421649: 1, 0.025422287475281052: 1, 0.025410007685652786: 1, 0.025408707794359525: 1, 0.025405581344238617: 1, 0.025401067067023671: 1, 0.025399723580266917: 1, 0.025395497170146161: 1, 0.025384841922732087: 1, 0.025379887306105367: 1, 0.025378981375461081: 1, 0.025377742411551694: 1, 0.025374869484160845: 1, 0.025373987879706891: 1, 0.025368209559285849: 1, 0.025356883098100552: 1, 0.025352676652863636: 1, 0.025348172704437847: 1, 0.025348050408010778: 1, 0.025336946133949882: 1, 0.025330347892009289: 1, 0.02532761438097984: 1, 0.025320757037059889: 1, 0.02531994514287526: 1, 0.025313880374960608: 1, 0.025307801883629098: 1, 0.025306300650240296: 1, 0.025304105101833337: 1, 0.025300943704178722: 1, 0.025297557471091955: 1, 0.025290904061135041: 1, 0.025290759207899902: 1, 0.025290453566671693: 1, 0.025283367996410462: 1, 0.025283250166154004: 1, 0.025278838941552622: 1, 0.02527049210400973: 1, 0.025270296164732822: 1, 0.025268237147696153: 1, 0.025260470948634879: 1, 0.025258005559055531: 1, 0.025250741741098304: 1, 0.025241823830961508: 1, 0.025239222325469129: 1, 0.025237189816508559: 1, 0.025234203475655873: 1, 0.025232730909358694: 1, 0.025229237664147239: 1, 0.025225011126742032: 1, 0.025216750054708564: 1, 0.025208802399050129: 1, 0.025208133641264292: 1, 0.025203309542862248: 1, 0.025199757752625594: 1, 0.025191792514937184: 1, 0.025190988248534683: 1, 0.025184900957925156: 1, 0.025184827423512267: 1, 0.025184594258712795: 1, 0.025182098213193293: 1, 0.025163456370690739: 1, 0.025153544905870403: 1, 0.025152408073821214: 1, 0.025152019474269434: 1, 0.025146254853402491: 1, 0.025145699172466181: 1, 0.025144203736780328: 1, 0.025138086801471268: 1, 0.025131712083064476: 1, 0.025128250946057366: 1, 0.025126965421978859: 1, 0.025119068865286403: 1, 0.025101764035713316: 1, 0.025100518825827589: 1, 0.025099084793342046: 1, 0.0250934323857765: 1, 0.025088391074774594: 1, 0.025087568399019395: 1, 0.025081015584372458: 1, 0.025070131115462416: 1, 0.025066954899388261: 1, 0.025065996911705649: 1, 0.025056665722475193: 1, 0.025054901945834887: 1, 0.025052811845814538: 1, 0.025050718219178657: 1, 0.02504877263573306: 1, 0.025044967327920706: 1, 0.025035221998506683: 1, 0.025033060115382259: 1, 0.025022696900727445: 1, 0.025020574493460793: 1, 0.025003216625353059: 1, 0.024989924427420592: 1, 0.024988710506145564: 1, 0.024986160705218453: 1, 0.024977730258931415: 1, 0.02497621096114953: 1, 0.02497598354943192: 1, 0.024967984937389127: 1, 0.024967583469979848: 1, 0.024964420816689314: 1, 0.024959034883605062: 1, 0.024958469742885521: 1, 0.024946203414445093: 1, 0.024945198891117407: 1, 0.024943679981625319: 1, 0.024942889015435916: 1, 0.024934724519560299: 1, 0.024932420503879289: 1, 0.02492587900236503: 1, 0.024924903220132324: 1, 0.024922134890423574: 1, 0.024920690515122412: 1, 0.024920652858364378: 1, 0.024918296327316781: 1, 0.024910961511637512: 1, 0.024908882486603282: 1, 0.024902860628270039: 1, 0.02490094509505731: 1, 0.024898976964318503: 1, 0.024891087400871009: 1, 0.024890284426552389: 1, 0.024884492564985081: 1, 0.024880213099903788: 1, 0.0248723662913093: 1, 0.024872291868384494: 1, 0.024872106153187357: 1, 0.02486982668809291: 1, 0.024865274825640583: 1, 0.024859554965389496: 1, 0.024859381283642887: 1, 0.024856970439167403: 1, 0.024851158718092941: 1, 0.024847167628344373: 1, 0.024843105444281546: 1, 0.024839593705347669: 1, 0.024839441523400362: 1, 0.024837067202425549: 1, 0.024835547074511327: 1, 0.024832259186312974: 1, 0.024822090248192426: 1, 0.024821846068999273: 1, 0.024818136147504472: 1, 0.024818030249065738: 1, 0.024817906344134069: 1, 0.024816658051396216: 1, 0.024808895693842335: 1, 0.024800788736062888: 1, 0.024799798736021016: 1, 0.024797941793585004: 1, 0.024789736217391799: 1, 0.024788094849724898: 1, 0.024786676217501608: 1, 0.024761718232635149: 1, 0.024755488522205597: 1, 0.024751283169873118: 1, 0.02474234067876659: 1, 0.024737022141675814: 1, 0.024735587558276463: 1, 0.024732548591613862: 1, 0.024731114919087173: 1, 0.02473078315896441: 1, 0.024727607357071586: 1, 0.024726800630020303: 1, 0.024724674201173316: 1, 0.024724561418634976: 1, 0.024723140984072592: 1, 0.024718355527633136: 1, 0.024711422736850855: 1, 0.024704515736357929: 1, 0.024699834341705588: 1, 0.024697514753923233: 1, 0.024695809375967527: 1, 0.024690822565211684: 1, 0.024683299642063079: 1, 0.024681452990458465: 1, 0.024677640197717579: 1, 0.024676576726849718: 1, 0.024670735421478747: 1, 0.024663496935831707: 1, 0.024661551841700189: 1, 0.024654696761821124: 1, 0.024653731455360338: 1, 0.02465115698054714: 1, 0.02464980153925822: 1, 0.024648443576203362: 1, 0.024647359334555492: 1, 0.024646692115186657: 1, 0.024629782635235083: 1, 0.024629736388703534: 1, 0.024629422775341071: 1, 0.024625145223370511: 1, 0.0246177023326405: 1, 0.024617322128746413: 1, 0.024615793808436655: 1, 0.024611506977031305: 1, 0.024609679090089914: 1, 0.024606760168819384: 1, 0.02460655771190251: 1, 0.024604364832741078: 1, 0.024600558544384171: 1, 0.024599567907932881: 1, 0.024597750857756027: 1, 0.024596169357896207: 1, 0.024594649947032678: 1, 0.024593488247449551: 1, 0.024592753699814125: 1, 0.0245919332290917: 1, 0.024586412268777606: 1, 0.024584188974765546: 1, 0.024580022062548623: 1, 0.02457980483276688: 1, 0.024576438690230885: 1, 0.02457446016788134: 1, 0.024573603436436515: 1, 0.024566805801540685: 1, 0.024564988223043746: 1, 0.024557645088104332: 1, 0.024548016201895544: 1, 0.024547970706994975: 1, 0.024542554035390702: 1, 0.024542069116226972: 1, 0.024540910453373581: 1, 0.02453556526646776: 1, 0.02453007031804455: 1, 0.024529499866679273: 1, 0.024526151454794511: 1, 0.024525445290032751: 1, 0.024522922511464623: 1, 0.024513047413359249: 1, 0.024511263781581583: 1, 0.02451036875564842: 1, 0.024507994802139128: 1, 0.024506480504942207: 1, 0.024504305410873856: 1, 0.024503810617846736: 1, 0.024500255028056601: 1, 0.024499619038702618: 1, 0.024498815122597245: 1, 0.024493187789286861: 1, 0.024491211758901663: 1, 0.024488512996527708: 1, 0.024485359512083499: 1, 0.024481904543885231: 1, 0.024478806137253728: 1, 0.024474235827070756: 1, 0.024472346610910221: 1, 0.024471850253098979: 1, 0.024471683827830708: 1, 0.024468635034847766: 1, 0.02446474214550207: 1, 0.024461771082195473: 1, 0.024459102579475166: 1, 0.024444717104956853: 1, 0.02444340418690524: 1, 0.024443256647250257: 1, 0.024442381012703428: 1, 0.024439210478722134: 1, 0.024437320355022996: 1, 0.024434583380663177: 1, 0.024434392933020049: 1, 0.024433730197309027: 1, 0.024426441622352066: 1, 0.024426327784716595: 1, 0.024420213138139659: 1, 0.02442014366400188: 1, 0.024419525143648538: 1, 0.024414651479592521: 1, 0.024412365765004183: 1, 0.024409321792742258: 1, 0.024405105731579044: 1, 0.024402988995684813: 1, 0.024402121480314409: 1, 0.02440141969561577: 1, 0.024399644754697941: 1, 0.024391176993746003: 1, 0.024385999678749642: 1, 0.024385786583791945: 1, 0.024375785657143215: 1, 0.024375360580526511: 1, 0.024372732892327061: 1, 0.024369216132500308: 1, 0.024362486285112454: 1, 0.024358871126122287: 1, 0.024350101052465916: 1, 0.024348405205888428: 1, 0.024342886575585379: 1, 0.024336673101850292: 1, 0.024330489081566216: 1, 0.024327599159770188: 1, 0.024323535530034884: 1, 0.024321044343415914: 1, 0.024319862689249787: 1, 0.024319228351255148: 1, 0.024318897181771645: 1, 0.02430979304239287: 1, 0.024306889094987419: 1, 0.024306719173131718: 1, 0.024305591427791769: 1, 0.024304923415049091: 1, 0.024304470478480771: 1, 0.024304282152390295: 1, 0.024302031853351298: 1, 0.024298833169915768: 1, 0.024295369332679256: 1, 0.024295072215475916: 1, 0.024290469918496295: 1, 0.024285135710537108: 1, 0.024284505751050511: 1, 0.024282186098771415: 1, 0.024279414897449472: 1, 0.024268498500507912: 1, 0.024259971200752677: 1, 0.024258973492918022: 1, 0.0242478051024838: 1, 0.024243228298342911: 1, 0.02423835980017966: 1, 0.024237878121706854: 1, 0.02423710077359147: 1, 0.024235146098912079: 1, 0.024232433279319988: 1, 0.024232250973486025: 1, 0.024229584275847302: 1, 0.024228336235753874: 1, 0.024221618891046865: 1, 0.024215933093386179: 1, 0.02421536035768761: 1, 0.024213598639441683: 1, 0.024212296751594288: 1, 0.024210367296330547: 1, 0.024208914465333929: 1, 0.024208850302058826: 1, 0.024205627324507498: 1, 0.024201322300285738: 1, 0.024200290618877567: 1, 0.02419853272203874: 1, 0.024196582933717722: 1, 0.024194340265926706: 1, 0.024193906657752312: 1, 0.024192076015424981: 1, 0.02419168648726366: 1, 0.02419067341334364: 1, 0.024189981209974783: 1, 0.024182162745676632: 1, 0.024174678554748412: 1, 0.024169678840614182: 1, 0.024168631757121063: 1, 0.024166753304175961: 1, 0.024166421742287912: 1, 0.024165305426995777: 1, 0.024161197762600114: 1, 0.024159503679699695: 1, 0.024158807830604756: 1, 0.024157237596000223: 1, 0.024156619369746144: 1, 0.024154481843936822: 1, 0.024135807645034452: 1, 0.024134436075927686: 1, 0.024133786438598266: 1, 0.024131945485685629: 1, 0.024126179970902592: 1, 0.024123665401673315: 1, 0.024122499364083897: 1, 0.024113061051347983: 1, 0.02410851591288455: 1, 0.024105071704664641: 1, 0.024102992481364129: 1, 0.024098765456385784: 1, 0.024093910382032506: 1, 0.024086328843712819: 1, 0.024083973244622126: 1, 0.024081111765787394: 1, 0.024072312300284518: 1, 0.02407177322602817: 1, 0.024071703760209416: 1, 0.024067611220721707: 1, 0.024065632139106029: 1, 0.024065116117113587: 1, 0.024061215940939497: 1, 0.024058993083570991: 1, 0.024058511761626291: 1, 0.024054673962773963: 1, 0.024054140664405005: 1, 0.024046719962161633: 1, 0.024046050226087825: 1, 0.024045455532812322: 1, 0.024038821162157456: 1, 0.024023204581421199: 1, 0.024016139533104996: 1, 0.024010476953923006: 1, 0.024005597005512455: 1, 0.024005405978583139: 1, 0.024002339867862956: 1, 0.02399900985940797: 1, 0.023997525234262022: 1, 0.023996029321304773: 1, 0.023993230999866562: 1, 0.02399231796376225: 1, 0.023991974275343074: 1, 0.023988777167578943: 1, 0.023987669075001366: 1, 0.023981979027981021: 1, 0.023973727412490421: 1, 0.023972640534672011: 1, 0.023970310155281633: 1, 0.023967782980740877: 1, 0.023966555201457095: 1, 0.02396053026113118: 1, 0.023959309526178054: 1, 0.023958205659252614: 1, 0.023954237640710734: 1, 0.023953707115512049: 1, 0.023951041274403371: 1, 0.023948762737927263: 1, 0.02394833813098185: 1, 0.023945064595582131: 1, 0.023944845438183319: 1, 0.023942844847383037: 1, 0.023941581994976608: 1, 0.023937596567909249: 1, 0.023936682522697091: 1, 0.023935559578266624: 1, 0.023934399526392099: 1, 0.023923226297559018: 1, 0.023923208135259326: 1, 0.023919874113516443: 1, 0.02391921712959591: 1, 0.023916174325802179: 1, 0.023914652298010652: 1, 0.023912647833066875: 1, 0.023912563636732987: 1, 0.023909709396328097: 1, 0.023908311567272005: 1, 0.023905691540798281: 1, 0.02390489136708478: 1, 0.023902743769793816: 1, 0.023894887134996691: 1, 0.023891853444095074: 1, 0.023891789189968839: 1, 0.023888433891036086: 1, 0.023879941259914855: 1, 0.023877801259678061: 1, 0.023877468503270303: 1, 0.023870406248665325: 1, 0.023869604236391145: 1, 0.023869441332373845: 1, 0.023867635224297606: 1, 0.023860638245992646: 1, 0.023860144115616419: 1, 0.023856872182035201: 1, 0.023856000961578486: 1, 0.023853309873267999: 1, 0.023851278682009966: 1, 0.023849603935134345: 1, 0.023842539837047497: 1, 0.023838870292228479: 1, 0.023833429582322922: 1, 0.023828826308367582: 1, 0.023825472908415402: 1, 0.023825380888243878: 1, 0.023817216622883698: 1, 0.02381099428240066: 1, 0.023809773873413764: 1, 0.02380218418857407: 1, 0.023801257306999363: 1, 0.023796834978597341: 1, 0.023792610171166427: 1, 0.023791748197076065: 1, 0.023789881687810824: 1, 0.023787534115199262: 1, 0.023778556169975023: 1, 0.023775356792365306: 1, 0.023769659383773879: 1, 0.023769309295669328: 1, 0.023768835127583772: 1, 0.023766982866737056: 1, 0.023765794025921973: 1, 0.023761372321839506: 1, 0.023754024068350053: 1, 0.023748510233936565: 1, 0.023746903394426665: 1, 0.023746687931201296: 1, 0.023740314219053427: 1, 0.023738969463533162: 1, 0.023732159392198311: 1, 0.02373077124133138: 1, 0.023725671604769693: 1, 0.023725627636528808: 1, 0.023725224740405358: 1, 0.023720158517503264: 1, 0.0237151025656148: 1, 0.023713695625443974: 1, 0.023712578371711417: 1, 0.023706522982531127: 1, 0.023702818045096857: 1, 0.023700842396183388: 1, 0.023699785769208854: 1, 0.023698467991498381: 1, 0.023689665340990162: 1, 0.023688457340706799: 1, 0.023687595920890106: 1, 0.023686545894847953: 1, 0.023685292799720599: 1, 0.023681667838900335: 1, 0.02368166054200431: 1, 0.023678734246462552: 1, 0.023676521769861684: 1, 0.023675920119873614: 1, 0.023670018068149341: 1, 0.02366670303184849: 1, 0.023662849958008294: 1, 0.023656975496339383: 1, 0.0236539985614957: 1, 0.023649606345444767: 1, 0.023649371940623044: 1, 0.023647726258820868: 1, 0.023643854647395102: 1, 0.023640281824005141: 1, 0.023635464299264053: 1, 0.023623159397183749: 1, 0.023616124915281721: 1, 0.023608808534572978: 1, 0.023604391086571183: 1, 0.023601009941538194: 1, 0.023594962656276662: 1, 0.023592296607142578: 1, 0.023592047397874183: 1, 0.023584577637651576: 1, 0.023584513866646548: 1, 0.023582740505654651: 1, 0.023579384981435435: 1, 0.023577033931997816: 1, 0.023571410985715469: 1, 0.0235703668582284: 1, 0.023569498971688072: 1, 0.023561826725213057: 1, 0.023560713288646985: 1, 0.023559560653508945: 1, 0.023557390619236437: 1, 0.023549984398574406: 1, 0.023547268238626615: 1, 0.023547109899764291: 1, 0.023545871610807574: 1, 0.023544921050212803: 1, 0.023538909317153616: 1, 0.023535281392348891: 1, 0.023533011529189265: 1, 0.023532725377060471: 1, 0.023528273729917577: 1, 0.02352523356226097: 1, 0.023524836767279213: 1, 0.023524574968658171: 1, 0.023522111930297868: 1, 0.023518698647440321: 1, 0.023516432223313129: 1, 0.023516009323299423: 1, 0.023515125521283403: 1, 0.023508869746584907: 1, 0.023499575863220722: 1, 0.023499490427387654: 1, 0.023497025308065026: 1, 0.023496547987699561: 1, 0.02349278990177403: 1, 0.023490345780608907: 1, 0.023486748073229046: 1, 0.02348354860708458: 1, 0.023483279984982786: 1, 0.023482296698523787: 1, 0.023481777527291466: 1, 0.023478783240744022: 1, 0.023475799801209864: 1, 0.02347345459603839: 1, 0.023472557037773144: 1, 0.023472301962645624: 1, 0.023470252640128118: 1, 0.023469842733031678: 1, 0.023459365145339851: 1, 0.023453553120489905: 1, 0.023447734478317814: 1, 0.023445045921043212: 1, 0.023443888753477037: 1, 0.023435829271418601: 1, 0.023428794691763486: 1, 0.023428322977260205: 1, 0.023419402601315347: 1, 0.023416614161794688: 1, 0.023415647521348896: 1, 0.023414540517599228: 1, 0.023408231987838014: 1, 0.023407828222745335: 1, 0.023405905112653537: 1, 0.023396899690754255: 1, 0.023391017660129344: 1, 0.023388842184071581: 1, 0.023381529317580457: 1, 0.023379467574022008: 1, 0.023378238201071599: 1, 0.023372887184905718: 1, 0.023371093532409921: 1, 0.0233660981176925: 1, 0.023358703272354037: 1, 0.02335590089298651: 1, 0.02335533781670604: 1, 0.023354427167712691: 1, 0.023350516669685621: 1, 0.023347026197195999: 1, 0.023346971723665514: 1, 0.023324252344180705: 1, 0.023323745657457498: 1, 0.023323024567698105: 1, 0.02331493004802632: 1, 0.023314908386929258: 1, 0.023312438780996588: 1, 0.023310195677485344: 1, 0.023306166866327908: 1, 0.023298412560234686: 1, 0.023297043948979915: 1, 0.023291743506139349: 1, 0.023290340489528528: 1, 0.023289227997692237: 1, 0.023288987660672018: 1, 0.02328832555882801: 1, 0.023286038095171074: 1, 0.023275674719040497: 1, 0.023275184834604452: 1, 0.02327466662529306: 1, 0.02327383350056203: 1, 0.023273671867106393: 1, 0.023270662976824036: 1, 0.023268709604396358: 1, 0.023264932058970077: 1, 0.023260842389051919: 1, 0.023260092753189437: 1, 0.023259237860766301: 1, 0.023257672803311497: 1, 0.0232574765956679: 1, 0.023255587626376126: 1, 0.023254433782282476: 1, 0.023246620509985605: 1, 0.023238428835285842: 1, 0.02321880825847181: 1, 0.023205734024550333: 1, 0.02320431114128782: 1, 0.023203613884561346: 1, 0.023201922362151909: 1, 0.023200360681850989: 1, 0.023199370699178448: 1, 0.023188732662639273: 1, 0.023185597236460208: 1, 0.02318523307953569: 1, 0.023184780310514595: 1, 0.023184133511239175: 1, 0.02317969011495381: 1, 0.023178229390866043: 1, 0.023173934517767333: 1, 0.02317295825459352: 1, 0.02317155384351207: 1, 0.023167961127690203: 1, 0.02315953850101507: 1, 0.023158966897594863: 1, 0.023157259289764642: 1, 0.023151140437977089: 1, 0.023147103125822938: 1, 0.023143427072026254: 1, 0.023142681473865223: 1, 0.023139729797161529: 1, 0.023135854662563952: 1, 0.023135208837204178: 1, 0.023129585060857029: 1, 0.023128912563253841: 1, 0.023125065898811324: 1, 0.023118831519791189: 1, 0.023116363061566957: 1, 0.023110467001622129: 1, 0.023108580424656293: 1, 0.023089929595871878: 1, 0.023088549633019144: 1, 0.023088388068451579: 1, 0.023086568577161001: 1, 0.023074511656431745: 1, 0.023074245825778619: 1, 0.023070442569976743: 1, 0.023070070200903237: 1, 0.023065792129629867: 1, 0.02306553333293548: 1, 0.023064660495609034: 1, 0.023062372332753815: 1, 0.023060400875364012: 1, 0.023060233168017336: 1, 0.023059922455168243: 1, 0.023059812019601979: 1, 0.023058566188587145: 1, 0.023058470664644233: 1, 0.02304789259085931: 1, 0.023044365122117251: 1, 0.023043384622435305: 1, 0.023041415759682424: 1, 0.02304133037620891: 1, 0.023036346140428415: 1, 0.023023674860639047: 1, 0.023015916602284435: 1, 0.023009352784926267: 1, 0.023007492858869404: 1, 0.023006470017535158: 1, 0.023004629412909657: 1, 0.02300148994265918: 1, 0.022999250916679353: 1, 0.022997593235451776: 1, 0.022973969144106959: 1, 0.022970310296655225: 1, 0.022966892778509093: 1, 0.022964585585480396: 1, 0.022957958768592832: 1, 0.022957424716725204: 1, 0.022954152925781936: 1, 0.022948167214170444: 1, 0.022945704390173637: 1, 0.022943148943435736: 1, 0.022942280178370668: 1, 0.022934893296396891: 1, 0.022933750807380721: 1, 0.02292823232760164: 1, 0.022925296817127263: 1, 0.022923109423077313: 1, 0.02292280229054889: 1, 0.022922167540839259: 1, 0.022922149126278962: 1, 0.022921745449663529: 1, 0.022918658069556955: 1, 0.022909400554546967: 1, 0.022903532869516775: 1, 0.022899771274160527: 1, 0.022897656642554366: 1, 0.022897306001596313: 1, 0.022895906750484217: 1, 0.02289563577326531: 1, 0.022890700414121827: 1, 0.022884357212141347: 1, 0.022881343407495411: 1, 0.022876523940437023: 1, 0.022873076738609072: 1, 0.022868922395951959: 1, 0.022867268718365086: 1, 0.022863488175484652: 1, 0.022859292434239564: 1, 0.022855303804725304: 1, 0.022850336783349759: 1, 0.022849453781634575: 1, 0.022847808437977433: 1, 0.022842672535572775: 1, 0.022834320926833532: 1, 0.022830542837567712: 1, 0.022828719443099256: 1, 0.022826910089529088: 1, 0.022825575961707874: 1, 0.022823308790024224: 1, 0.022820406623106582: 1, 0.022820289527160836: 1, 0.022809619209355064: 1, 0.022798557474577142: 1, 0.022798387351410314: 1, 0.022797181399173538: 1, 0.02279706669082146: 1, 0.022789489261506386: 1, 0.022784482746931754: 1, 0.0227832082716302: 1, 0.022774850865593575: 1, 0.022769545290744576: 1, 0.022763436582377786: 1, 0.022762846414463501: 1, 0.022758369526216592: 1, 0.02275812891211253: 1, 0.022754488132404979: 1, 0.022753483133991895: 1, 0.022749260471875962: 1, 0.022747646284803101: 1, 0.022743190031632138: 1, 0.022740459572259477: 1, 0.022736669262562265: 1, 0.022732932151642994: 1, 0.022732589450165906: 1, 0.022731530095597148: 1, 0.022729689077489432: 1, 0.022727368896235278: 1, 0.022725032652817841: 1, 0.022723859821571983: 1, 0.022722716838996137: 1, 0.02272033768181158: 1, 0.022718878105284456: 1, 0.022717189870876127: 1, 0.022714701118073444: 1, 0.022711666613929721: 1, 0.022700346461072749: 1, 0.022696902683456626: 1, 0.022696451636530387: 1, 0.022693397561137765: 1, 0.022686913518431863: 1, 0.022684693522072436: 1, 0.022681362805438351: 1, 0.022678852393206862: 1, 0.022677796396027891: 1, 0.02267601498187858: 1, 0.02266828791225875: 1, 0.022664084573928645: 1, 0.02266032825829287: 1, 0.022660005088858758: 1, 0.022655799550233877: 1, 0.022651905608042113: 1, 0.022651257205097364: 1, 0.022645865227401352: 1, 0.02263724195933435: 1, 0.022632187512710109: 1, 0.022629979423362021: 1, 0.022628406408213016: 1, 0.022624817227418596: 1, 0.022623613174132137: 1, 0.022620963702633372: 1, 0.022619299042777024: 1, 0.022618860884397452: 1, 0.022610285293637861: 1, 0.022603439463329301: 1, 0.022598955950879716: 1, 0.022595613585694098: 1, 0.022594794458168661: 1, 0.022592718295916494: 1, 0.02258152978387604: 1, 0.022579900196613212: 1, 0.022574479832802526: 1, 0.022569120350133282: 1, 0.022569050512308977: 1, 0.022568297111915676: 1, 0.022564207432266191: 1, 0.022559941136060527: 1, 0.0225597202906033: 1, 0.022553477524384122: 1, 0.02254526749043571: 1, 0.022545055988647922: 1, 0.022540926705419229: 1, 0.022540922842008419: 1, 0.022540117696278499: 1, 0.022537840119280856: 1, 0.022532450757566963: 1, 0.022532422813656663: 1, 0.022527425144958188: 1, 0.022524410870285564: 1, 0.022520696166638147: 1, 0.022520540315273653: 1, 0.022516702609005249: 1, 0.02251664441175432: 1, 0.022511975507244049: 1, 0.022511545927091495: 1, 0.022508134051993312: 1, 0.02250499902324557: 1, 0.022502674697959489: 1, 0.022501262347873856: 1, 0.022488542502341419: 1, 0.022479483147579193: 1, 0.022473577039564579: 1, 0.022464444262952316: 1, 0.022460351298335728: 1, 0.022460297773373258: 1, 0.0224575490602133: 1, 0.022453578623737321: 1, 0.022445132082008806: 1, 0.022443188755939147: 1, 0.022442311196626531: 1, 0.022437390368612267: 1, 0.022431496850187933: 1, 0.022431271692319149: 1, 0.022427975691420209: 1, 0.022425766490959079: 1, 0.022424784870349997: 1, 0.02242215800044586: 1, 0.022415277872632096: 1, 0.02241053829227798: 1, 0.022410023163486881: 1, 0.022405995318795703: 1, 0.022402490785891242: 1, 0.0223880133569269: 1, 0.022381933929063309: 1, 0.022381929386858474: 1, 0.022378122332938618: 1, 0.022369529434681443: 1, 0.022367564115485652: 1, 0.022365445586031908: 1, 0.022355742215813695: 1, 0.022352239069537469: 1, 0.022346523716351867: 1, 0.022344200054068668: 1, 0.022342876725124663: 1, 0.022332192763583496: 1, 0.022331184802905774: 1, 0.022329407138393004: 1, 0.022325217969843648: 1, 0.022319199566541693: 1, 0.022316167608171435: 1, 0.022315191577390175: 1, 0.022314236173458547: 1, 0.022307449750961078: 1, 0.022302925461006439: 1, 0.022301992185686792: 1, 0.022299636897091628: 1, 0.022297376639418592: 1, 0.022293490889039758: 1, 0.022291208057918389: 1, 0.022282492680378106: 1, 0.022280667887768453: 1, 0.022278656419341489: 1, 0.022273786803031305: 1, 0.0222667991990581: 1, 0.022265043177160906: 1, 0.022260886688411547: 1, 0.02226040559422876: 1, 0.022254022173360852: 1, 0.022252810820949147: 1, 0.022250289942038488: 1, 0.022246701682562282: 1, 0.02224536088959736: 1, 0.022240880648134509: 1, 0.022238286237249195: 1, 0.022235174266843422: 1, 0.022233907839200116: 1, 0.022231773975224668: 1, 0.022223938644538057: 1, 0.02222338955230399: 1, 0.022220994142086562: 1, 0.022215587260932521: 1, 0.022214798419577318: 1, 0.022211653243616909: 1, 0.022209421778158579: 1, 0.022203669695609569: 1, 0.02220192980746407: 1, 0.022200608429895238: 1, 0.02219993092875228: 1, 0.022198754065386544: 1, 0.02219745695648211: 1, 0.022190289411071151: 1, 0.022183458874212345: 1, 0.022182668927392301: 1, 0.022181145372388807: 1, 0.022179789870823433: 1, 0.022179036835842273: 1, 0.022178050596732918: 1, 0.022170966506450552: 1, 0.022166443644282489: 1, 0.022166106642852564: 1, 0.022164574812478809: 1, 0.022164079384961243: 1, 0.022162422493819195: 1, 0.022161863873531487: 1, 0.02215478152659146: 1, 0.022152886219011188: 1, 0.022151726967868782: 1, 0.022151465733471334: 1, 0.022148868156575165: 1, 0.022146582448768548: 1, 0.022146158893771292: 1, 0.022145031490142172: 1, 0.022144739003940359: 1, 0.022141644616570963: 1, 0.02213960862218136: 1, 0.022129221391717926: 1, 0.022122175094210859: 1, 0.022121746541658223: 1, 0.022113872789072231: 1, 0.022112963471349417: 1, 0.022112126422207168: 1, 0.022107338358831836: 1, 0.022095403425933018: 1, 0.022093347917082853: 1, 0.022089327769167669: 1, 0.022087823490576659: 1, 0.022083838076365103: 1, 0.022075633737902774: 1, 0.022070710398470132: 1, 0.022066312366693732: 1, 0.022065944562244144: 1, 0.022056604634115219: 1, 0.022051158531442995: 1, 0.022047196402184228: 1, 0.022046114857276453: 1, 0.022045106667650721: 1, 0.02204344837058091: 1, 0.022041992859178933: 1, 0.022040577961664466: 1, 0.022039677179881298: 1, 0.022032156101231166: 1, 0.022031796082941837: 1, 0.022028249286791833: 1, 0.022025716640163031: 1, 0.022019470998125314: 1, 0.022012063520562918: 1, 0.022011837622602025: 1, 0.022009693062850669: 1, 0.022001376086794963: 1, 0.022001120792853119: 1, 0.0220010559645809: 1, 0.021999942133980287: 1, 0.021997657143728838: 1, 0.021970150139466314: 1, 0.021964214985329408: 1, 0.02196417144340649: 1, 0.02195499437191524: 1, 0.02194596966652549: 1, 0.021934440671115288: 1, 0.021930787567190389: 1, 0.021930692944190287: 1, 0.021930535817918331: 1, 0.021912704827196899: 1, 0.021912622226879411: 1, 0.021909214749032898: 1, 0.021907417391909365: 1, 0.021901978460867201: 1, 0.021900473808300781: 1, 0.021887337512031427: 1, 0.021884734898947746: 1, 0.021880495464077523: 1, 0.021879607040909202: 1, 0.021874618902777195: 1, 0.021873498710122424: 1, 0.021867170796666252: 1, 0.021865527710565984: 1, 0.021863866481064233: 1, 0.021857181147244008: 1, 0.0218443837022004: 1, 0.02184334870078259: 1, 0.021841667951274339: 1, 0.021836486681192476: 1, 0.021834668061420259: 1, 0.0218329969973011: 1, 0.02182421102767209: 1, 0.021822629796708563: 1, 0.021821249738118491: 1, 0.021819224444264085: 1, 0.021818199850017091: 1, 0.021818169312525077: 1, 0.021816148563553392: 1, 0.02181332725779634: 1, 0.021811528063266552: 1, 0.021810275101622527: 1, 0.021808945622726283: 1, 0.021804573312123984: 1, 0.021803365485156326: 1, 0.021802962045890734: 1, 0.021800853605880688: 1, 0.021800022407807904: 1, 0.021799449002208912: 1, 0.021794757854465524: 1, 0.021785583259578984: 1, 0.021777984091160545: 1, 0.021767954674538816: 1, 0.021763777411696321: 1, 0.021761283996285383: 1, 0.021759923195181857: 1, 0.021757260844145865: 1, 0.021755868078290941: 1, 0.02175541081605465: 1, 0.021751928142609005: 1, 0.021751562241020483: 1, 0.021745650345076882: 1, 0.021743741946818003: 1, 0.021731082933766993: 1, 0.021722277204389864: 1, 0.021718201071484776: 1, 0.021717095013400217: 1, 0.021715082467367565: 1, 0.021712480536946938: 1, 0.021708982346156543: 1, 0.021705665632548894: 1, 0.021705502106842096: 1, 0.021704968027231205: 1, 0.021697644045017107: 1, 0.021694695624332478: 1, 0.021692923079904843: 1, 0.021685711300299601: 1, 0.021683762994132126: 1, 0.02168262698885056: 1, 0.021669972416803625: 1, 0.021667204729953017: 1, 0.021665598484444312: 1, 0.021665410715560759: 1, 0.02165975887222428: 1, 0.021651625236390359: 1, 0.021648542093905074: 1, 0.021644650375624717: 1, 0.021644438864068135: 1, 0.021643610050602204: 1, 0.021638605856555561: 1, 0.021624660983656837: 1, 0.021624599531678192: 1, 0.021621999366667508: 1, 0.021616014788351096: 1, 0.021615275849605389: 1, 0.021614303828460843: 1, 0.021608077322168115: 1, 0.021606909386873194: 1, 0.021606828179223776: 1, 0.021605489506906415: 1, 0.021605416578575017: 1, 0.021603352569817741: 1, 0.021600390917359116: 1, 0.021598322616509718: 1, 0.021595486287492277: 1, 0.021594577989186244: 1, 0.021592628299457114: 1, 0.021592075358212687: 1, 0.021588345059942837: 1, 0.021586464374838198: 1, 0.021586390268577664: 1, 0.021577354459034533: 1, 0.021574922287064292: 1, 0.021573862908809444: 1, 0.021570648985908568: 1, 0.021568468620335506: 1, 0.021563800824772446: 1, 0.021558204189188954: 1, 0.021556012457591273: 1, 0.021553108378142286: 1, 0.021551553404831038: 1, 0.021547465968403862: 1, 0.02153379913827036: 1, 0.021531804146135047: 1, 0.021530011790000657: 1, 0.021529953834689589: 1, 0.021528814774313548: 1, 0.021525617333868298: 1, 0.021523988492455036: 1, 0.021520026244310667: 1, 0.021519205703307592: 1, 0.021515239236585097: 1, 0.021508195147940584: 1, 0.021505271136520003: 1, 0.021503595899742968: 1, 0.02150237525674872: 1, 0.021501982440559925: 1, 0.021498809440670355: 1, 0.021498471668666072: 1, 0.021486987673315902: 1, 0.021475215165370841: 1, 0.021473825098787522: 1, 0.021468599524687042: 1, 0.02146517593029941: 1, 0.0214641736902292: 1, 0.021462916443731269: 1, 0.021462626031706941: 1, 0.021453576938791706: 1, 0.02145348261499546: 1, 0.021442057728489384: 1, 0.021432664939899228: 1, 0.02143139161624728: 1, 0.021429824808219217: 1, 0.021423720686080359: 1, 0.021422075742646245: 1, 0.021421859584794388: 1, 0.02142063613283151: 1, 0.021414042068525103: 1, 0.021412468812657473: 1, 0.021410363594540453: 1, 0.021394513697486933: 1, 0.021393475117052106: 1, 0.021386130360545624: 1, 0.021383616278199506: 1, 0.021380418423348778: 1, 0.021379953288236223: 1, 0.021376896565877129: 1, 0.021376110119424072: 1, 0.021374328538723279: 1, 0.021367005371839304: 1, 0.021361829495215055: 1, 0.021361348089737595: 1, 0.021361136586611471: 1, 0.021360664615579606: 1, 0.021358366864089262: 1, 0.021355960835551451: 1, 0.021353602693963511: 1, 0.021349763639915705: 1, 0.021341569158399132: 1, 0.021338757963602118: 1, 0.021337578007324352: 1, 0.021336802797101054: 1, 0.021336733187213627: 1, 0.021336016222779985: 1, 0.021335844311073379: 1, 0.021334446240569044: 1, 0.021333918072944005: 1, 0.021332607047006943: 1, 0.021331151061883474: 1, 0.021327069886042858: 1, 0.021326439110740617: 1, 0.021325473234509451: 1, 0.021317935807949898: 1, 0.021317560451156185: 1, 0.021312830847319372: 1, 0.021309338420758429: 1, 0.02129453852456956: 1, 0.021291786368208315: 1, 0.021287690121150428: 1, 0.021279977799342466: 1, 0.021272079903914703: 1, 0.021263008101852873: 1, 0.021255305321804519: 1, 0.021249269473567756: 1, 0.021246286612522369: 1, 0.021245146108945234: 1, 0.02124299444543306: 1, 0.021237704012873945: 1, 0.021237373168178881: 1, 0.02123441036929483: 1, 0.021232343451721217: 1, 0.021231161685081906: 1, 0.021228804480388563: 1, 0.021222601231931093: 1, 0.021218800193922853: 1, 0.021214824338406074: 1, 0.021214149564214361: 1, 0.021211996340922256: 1, 0.021211323655627008: 1, 0.02120970041921455: 1, 0.021207549696873034: 1, 0.021205852244586439: 1, 0.021205830823972358: 1, 0.021204643392003793: 1, 0.021204377836251134: 1, 0.021200531283337345: 1, 0.021200151536060932: 1, 0.021198929146749326: 1, 0.021198224702567721: 1, 0.021196790280067757: 1, 0.021194290949104161: 1, 0.0211937418874221: 1, 0.021193367302941104: 1, 0.021191547233586315: 1, 0.021188995373730243: 1, 0.021187242260302649: 1, 0.021184914916313677: 1, 0.021181737071941979: 1, 0.02118098206566154: 1, 0.021180528682141327: 1, 0.021179101414706088: 1, 0.02117445856692049: 1, 0.021169120439731078: 1, 0.021168585214673675: 1, 0.021167705856284632: 1, 0.021167695365845014: 1, 0.021166071178557681: 1, 0.021161755372037214: 1, 0.021158427700324316: 1, 0.021156605787226945: 1, 0.021150851376612913: 1, 0.02115052958291366: 1, 0.021150057857141927: 1, 0.021149325602761348: 1, 0.021146196751742698: 1, 0.02113960303935488: 1, 0.021136742841125031: 1, 0.021134624220323407: 1, 0.021132790277406034: 1, 0.021126403993962633: 1, 0.021122800414670587: 1, 0.021121705886093994: 1, 0.021116817083029572: 1, 0.021111647890809715: 1, 0.021108848992162834: 1, 0.021107427792493298: 1, 0.021106830584482605: 1, 0.021100683634224557: 1, 0.021097572448026739: 1, 0.021095565698774917: 1, 0.021092632546383168: 1, 0.021086862668368119: 1, 0.021083386416034466: 1, 0.021081816560146766: 1, 0.021075355376754284: 1, 0.021074014232053073: 1, 0.02107368275487273: 1, 0.021072607832039628: 1, 0.021071870422892942: 1, 0.021070231914408225: 1, 0.021064707982891027: 1, 0.021061697650954801: 1, 0.021056061421706677: 1, 0.021049310862237065: 1, 0.021044476389292549: 1, 0.021040885761735229: 1, 0.021039316345822325: 1, 0.021038191348852944: 1, 0.021035984492859303: 1, 0.021035369263965938: 1, 0.021035120737383388: 1, 0.021034087816454779: 1, 0.021033907123708784: 1, 0.021030048284605599: 1, 0.021029773110971615: 1, 0.021027983771455771: 1, 0.021027723863663098: 1, 0.021026301370697789: 1, 0.021019476019709452: 1, 0.021010718529532759: 1, 0.021010408777072612: 1, 0.021010258021555796: 1, 0.021003861049168605: 1, 0.020991765560137536: 1, 0.020987054388312571: 1, 0.020983705610301221: 1, 0.020981635283637747: 1, 0.020975997057782279: 1, 0.02097200096096833: 1, 0.020971761939988544: 1, 0.020970273682805709: 1, 0.020968465792243422: 1, 0.020963664454106364: 1, 0.020962162102069394: 1, 0.020960292580438675: 1, 0.020959039492214577: 1, 0.020959012155642661: 1, 0.020958464561652075: 1, 0.020957880299648613: 1, 0.02095744855365364: 1, 0.020956929354472457: 1, 0.020956724656398095: 1, 0.02095656521792362: 1, 0.020954447753596013: 1, 0.020951192063973112: 1, 0.020944949495631807: 1, 0.020937733894757251: 1, 0.020934204095029656: 1, 0.020925137475968358: 1, 0.020923327123988894: 1, 0.02092293252537402: 1, 0.020916201628732482: 1, 0.020915643491883389: 1, 0.020911856969838973: 1, 0.020906529900784145: 1, 0.020896458364944644: 1, 0.020896382150086566: 1, 0.020896214930555733: 1, 0.020894298189722653: 1, 0.020893585587712971: 1, 0.020888377233505437: 1, 0.02088324155773719: 1, 0.020880596456790336: 1, 0.02087565753800211: 1, 0.020870009184071427: 1, 0.020866811304202027: 1, 0.020865759948067993: 1, 0.020864582614942617: 1, 0.020862634669441792: 1, 0.020862209658137475: 1, 0.020858948721112301: 1, 0.020854959125187082: 1, 0.020853638370547004: 1, 0.020847531341333631: 1, 0.020846262896594813: 1, 0.020845046448194744: 1, 0.020844337992324893: 1, 0.020843071523024427: 1, 0.020839429976707551: 1, 0.020835727950381983: 1, 0.020832969232148731: 1, 0.020823874765199812: 1, 0.020822264284479693: 1, 0.020820433552557173: 1, 0.020810641792029849: 1, 0.02080945661359522: 1, 0.020805512021856327: 1, 0.02080245329271968: 1, 0.02079985854456138: 1, 0.02079736081002952: 1, 0.020796483427053189: 1, 0.020796437148425165: 1, 0.02079622365359516: 1, 0.020795121247671064: 1, 0.020793828584825431: 1, 0.020793499198674573: 1, 0.020789918642709002: 1, 0.020789428070486223: 1, 0.020777554768235982: 1, 0.02077289649835241: 1, 0.020765908330195686: 1, 0.02076574382036895: 1, 0.020764470354171047: 1, 0.02076301104071648: 1, 0.020755687272224922: 1, 0.020753933231775767: 1, 0.020753722277435601: 1, 0.020753145381852696: 1, 0.020750789606034437: 1, 0.020748750015766215: 1, 0.020748109086558261: 1, 0.020745712817113415: 1, 0.020744000106453803: 1, 0.020743397815844042: 1, 0.020743017392985046: 1, 0.020741512640770704: 1, 0.020738987672114677: 1, 0.020734326218181023: 1, 0.020733479370592604: 1, 0.020733024805004545: 1, 0.020728091996638873: 1, 0.020727230153494723: 1, 0.020720038015199511: 1, 0.020719530119720664: 1, 0.020717203405920034: 1, 0.02071710392958355: 1, 0.020712537228600489: 1, 0.020711906145734787: 1, 0.020703475771825363: 1, 0.020692117702150445: 1, 0.020689736914038824: 1, 0.020685420888271151: 1, 0.02068305950490134: 1, 0.020682518827897976: 1, 0.020675582794258213: 1, 0.020667413091746415: 1, 0.02065330041078826: 1, 0.020652845426158188: 1, 0.02064625071284959: 1, 0.020642700417158457: 1, 0.020635934785383999: 1, 0.02063516722347504: 1, 0.020633292775085212: 1, 0.020629933233421154: 1, 0.020627475187029433: 1, 0.020625723640581295: 1, 0.020621534869233273: 1, 0.020616249375273923: 1, 0.020613806053502583: 1, 0.020607941526330279: 1, 0.020607911145903837: 1, 0.020606209297495993: 1, 0.02060487199654279: 1, 0.020598190745258094: 1, 0.020596145610811554: 1, 0.020589558268501548: 1, 0.020589035533274836: 1, 0.020586327137980635: 1, 0.020581101169098098: 1, 0.0205804706010814: 1, 0.020577302148442951: 1, 0.020570605073678569: 1, 0.020562478410066982: 1, 0.02056120331552486: 1, 0.020555481706082301: 1, 0.020542338992732563: 1, 0.020534450899301778: 1, 0.020517780639677345: 1, 0.020516000392533748: 1, 0.020513288129699044: 1, 0.020510581844929293: 1, 0.020507659502916217: 1, 0.020506998750034734: 1, 0.020503366458373706: 1, 0.020501585540106223: 1, 0.020498926246548563: 1, 0.020491197997080744: 1, 0.020489892658023506: 1, 0.02048835941755929: 1, 0.020487741558823654: 1, 0.020479858718505918: 1, 0.020476991222687278: 1, 0.020475014493121058: 1, 0.020474040474843289: 1, 0.020473406485973178: 1, 0.020471236201976561: 1, 0.020470497813165407: 1, 0.020466458763163848: 1, 0.02045930192528329: 1, 0.02045724982283114: 1, 0.020456059653021746: 1, 0.02044692415139223: 1, 0.020443858426690206: 1, 0.020441020356006097: 1, 0.020438651510997344: 1, 0.020438064440175534: 1, 0.020437896876814562: 1, 0.02043403820582056: 1, 0.020432224079993247: 1, 0.020426913169641958: 1, 0.020424895389190106: 1, 0.020424719850173443: 1, 0.020420628030920516: 1, 0.020420373730417364: 1, 0.020416808043413136: 1, 0.020416374700417073: 1, 0.020415944342549067: 1, 0.0204142300648812: 1, 0.020412116125983128: 1, 0.020408277944743182: 1, 0.02040722185479938: 1, 0.020401584221268823: 1, 0.020400495374858035: 1, 0.020400120209440167: 1, 0.020390719614165078: 1, 0.020382992496745488: 1, 0.020380848789719453: 1, 0.020375404969938601: 1, 0.020373619422444263: 1, 0.020371745744937785: 1, 0.020367593238942071: 1, 0.020365719058477096: 1, 0.020358894265625961: 1, 0.020353341840565847: 1, 0.020350338647005795: 1, 0.020348749016056045: 1, 0.02034641971401141: 1, 0.020345391540292749: 1, 0.020339402241324831: 1, 0.020339368529095628: 1, 0.020335250575465723: 1, 0.020331605739361245: 1, 0.020323489232669762: 1, 0.020322501198119937: 1, 0.02031959730185786: 1, 0.020314959109299625: 1, 0.020312592189441599: 1, 0.020312251976337452: 1, 0.02030810432132622: 1, 0.020303950690656648: 1, 0.02030127048106874: 1, 0.020298512760887712: 1, 0.020297185711164862: 1, 0.020284844628424961: 1, 0.020280033856329999: 1, 0.020279094915751295: 1, 0.020277329134245951: 1, 0.020276873471142605: 1, 0.020274555514736843: 1, 0.020274150434608729: 1, 0.020273702493812717: 1, 0.0202724837547625: 1, 0.020271928196954517: 1, 0.020271279702938159: 1, 0.020268800575962254: 1, 0.020263074638606528: 1, 0.020259842112118353: 1, 0.020251952188843209: 1, 0.020250017835561664: 1, 0.020249884571849796: 1, 0.020247813486965818: 1, 0.020245452861662197: 1, 0.020243254133804078: 1, 0.020243147796085378: 1, 0.020241232915340055: 1, 0.020236841617177152: 1, 0.020234177352277831: 1, 0.02023351299498645: 1, 0.020233222568895197: 1, 0.020232325802959753: 1, 0.02022873446060356: 1, 0.02022846721483711: 1, 0.020225484363482427: 1, 0.02022299125258847: 1, 0.020218153700754412: 1, 0.020211499977011205: 1, 0.02020972800224255: 1, 0.020204470721402946: 1, 0.020202985559378307: 1, 0.02020000461953856: 1, 0.020195477611784522: 1, 0.020190209055055884: 1, 0.020183961999351588: 1, 0.020179840405370152: 1, 0.020178548533434086: 1, 0.020173464136710215: 1, 0.020167397486756194: 1, 0.020167324746085725: 1, 0.020166917965473239: 1, 0.0201620009634913: 1, 0.020161566693348683: 1, 0.020161379352268867: 1, 0.020159520195142302: 1, 0.020156364836182456: 1, 0.020153453374104135: 1, 0.020151715894035735: 1, 0.02014940841208333: 1, 0.020144573250868263: 1, 0.020142563034835935: 1, 0.020133113498598552: 1, 0.020130454172003077: 1, 0.020128805311100395: 1, 0.020128118521884793: 1, 0.020119207131362081: 1, 0.020116919369341436: 1, 0.020110970015593619: 1, 0.020103371571702604: 1, 0.020101370664348965: 1, 0.020096962399724774: 1, 0.020091589916224502: 1, 0.020088964801220729: 1, 0.020088841569828063: 1, 0.020087287034708894: 1, 0.020083634228438247: 1, 0.020078719449973179: 1, 0.020077896626628577: 1, 0.020073608138166599: 1, 0.020073606841096849: 1, 0.020071615573141945: 1, 0.020067620034339231: 1, 0.020052589333920123: 1, 0.020052325820240306: 1, 0.020048831278058867: 1, 0.020048373642537073: 1, 0.020047739162519361: 1, 0.020044312663423818: 1, 0.0200404174489409: 1, 0.02003683726182812: 1, 0.020023757433255518: 1, 0.020023605392839261: 1, 0.020023022349498952: 1, 0.02001979857888064: 1, 0.020019058701102588: 1, 0.020018201517922656: 1, 0.020017151853919959: 1, 0.020013203804942103: 1, 0.0200126494356863: 1, 0.020012570871234626: 1, 0.02000017073682684: 1, 0.019992680070960223: 1, 0.01999125188135549: 1, 0.019990742078092139: 1, 0.019989461113159811: 1, 0.019986853814895466: 1, 0.019976198308845006: 1, 0.019973886409156837: 1, 0.019973842125235244: 1, 0.01997255378605909: 1, 0.019969740268254106: 1, 0.019969351556999665: 1, 0.01996447598890589: 1, 0.019964244420743803: 1, 0.019962248358181226: 1, 0.019960233867297901: 1, 0.019958779221013495: 1, 0.019958180697959987: 1, 0.01995561891101796: 1, 0.019954392627325422: 1, 0.019953057320259045: 1, 0.019939956711587783: 1, 0.019939676429913504: 1, 0.019926416684688406: 1, 0.019926363026557252: 1, 0.019922204530471804: 1, 0.019919172420138215: 1, 0.019915502301084902: 1, 0.019912669723954099: 1, 0.019907584794098467: 1, 0.019899122978701937: 1, 0.019891890078778177: 1, 0.019877252624854271: 1, 0.019870616964124285: 1, 0.019866244585575218: 1, 0.019863693387909401: 1, 0.019861772167436613: 1, 0.019858329068340543: 1, 0.019856394920540719: 1, 0.019855098000350641: 1, 0.019853187398201168: 1, 0.019848192623926102: 1, 0.019844252290744682: 1, 0.019837889102522058: 1, 0.019829013021781521: 1, 0.019824899292386462: 1, 0.019824550693717816: 1, 0.019815967139567719: 1, 0.019808143798085338: 1, 0.019793473416735076: 1, 0.01979248441307907: 1, 0.01978579966013843: 1, 0.019784523502562702: 1, 0.019783720280475512: 1, 0.019783656292954636: 1, 0.019782921122350725: 1, 0.019782790933321321: 1, 0.019775245202283895: 1, 0.01976739180761259: 1, 0.019765503542433831: 1, 0.01976443258590856: 1, 0.019757830624517511: 1, 0.019751233285492689: 1, 0.019748539988185182: 1, 0.01974373037317196: 1, 0.019742340471726062: 1, 0.0197373607571045: 1, 0.019733934042774067: 1, 0.019732813537043793: 1, 0.019728786588629223: 1, 0.019724708724479394: 1, 0.019723526082441059: 1, 0.019720831834027654: 1, 0.019720830227135226: 1, 0.019714562368799995: 1, 0.019710646468958898: 1, 0.019706150502234201: 1, 0.019705838525593503: 1, 0.019700686653681715: 1, 0.019697675870544121: 1, 0.019692577533191011: 1, 0.019691408854061995: 1, 0.019690509583554075: 1, 0.019688220730690646: 1, 0.019687601637608007: 1, 0.019687434378578627: 1, 0.019686993314184126: 1, 0.019683760186319194: 1, 0.01967958727236651: 1, 0.019667933609692361: 1, 0.019661205032683329: 1, 0.019653484591714711: 1, 0.019651422799794687: 1, 0.01964530799110752: 1, 0.019642717675203626: 1, 0.019642373444151276: 1, 0.019638166729561393: 1, 0.019629516585362803: 1, 0.019628141657483975: 1, 0.019624507062805833: 1, 0.019622476515473782: 1, 0.019620617971465758: 1, 0.019620370557173361: 1, 0.019616517949192835: 1, 0.019615250535103618: 1, 0.019612646590717524: 1, 0.019610300438468904: 1, 0.019609355151716464: 1, 0.019609281097463096: 1, 0.019606665307174077: 1, 0.019604254866551922: 1, 0.019603138636957632: 1, 0.019602384634778786: 1, 0.019587181565756707: 1, 0.019584294260764752: 1, 0.019575625631438314: 1, 0.019574784075764039: 1, 0.019566261387096058: 1, 0.019562179999453963: 1, 0.019556306703269973: 1, 0.019555601827861303: 1, 0.019552195618466831: 1, 0.019540886869553221: 1, 0.019539812804536913: 1, 0.01953147376609915: 1, 0.019530466911976553: 1, 0.019529696553127793: 1, 0.019526155594795189: 1, 0.019522751519481345: 1, 0.019520582365568202: 1, 0.019516981723814681: 1, 0.019498595928324543: 1, 0.019494322732726097: 1, 0.019480052378041079: 1, 0.01947510348621629: 1, 0.019467205068713259: 1, 0.01946546698036318: 1, 0.019463983806716656: 1, 0.019461948038592684: 1, 0.019461576109691632: 1, 0.019459009395136104: 1, 0.019457763263740151: 1, 0.01945404165594886: 1, 0.019442404025981005: 1, 0.019441647109554441: 1, 0.019439344773167944: 1, 0.019433101757830945: 1, 0.019426964519096139: 1, 0.019425264581105876: 1, 0.019424850340351619: 1, 0.019422501188065842: 1, 0.019422058409884663: 1, 0.019421504344696396: 1, 0.019421005849767824: 1, 0.019420516638977526: 1, 0.019420151089993287: 1, 0.01941378087247226: 1, 0.019411872227635209: 1, 0.019410371777201244: 1, 0.019408423464348915: 1, 0.019400223575011442: 1, 0.019397920851239234: 1, 0.019383627991288781: 1, 0.019375267453248711: 1, 0.019371865671533421: 1, 0.019368698860456848: 1, 0.019365960859784613: 1, 0.019362741360689641: 1, 0.01935805206452311: 1, 0.019357181439992981: 1, 0.019355855608689777: 1, 0.019355001499517931: 1, 0.019352658742406041: 1, 0.019349320774577381: 1, 0.019347354730389701: 1, 0.019343523243719535: 1, 0.019341356186675839: 1, 0.019337172634408782: 1, 0.019331563752579665: 1, 0.019330809206448151: 1, 0.019330137343642497: 1, 0.019327414243367574: 1, 0.019325834842772439: 1, 0.019316882417169726: 1, 0.019312047738968857: 1, 0.019311672879941483: 1, 0.019303705925425511: 1, 0.019302154457916259: 1, 0.019301504868660113: 1, 0.019300839674189822: 1, 0.01930015608747173: 1, 0.019287233574820421: 1, 0.019283996825195816: 1, 0.019277314793482291: 1, 0.019271494384042145: 1, 0.019271357706507994: 1, 0.019262468295264817: 1, 0.019254370112735779: 1, 0.019253799862035931: 1, 0.019252304240669121: 1, 0.019248967779610372: 1, 0.019239389629722763: 1, 0.019238486651464309: 1, 0.019236772660097174: 1, 0.019236621019174976: 1, 0.019231589582767137: 1, 0.019229332050062688: 1, 0.019228349467052749: 1, 0.019227668379291567: 1, 0.019227591530235476: 1, 0.019227267007338584: 1, 0.019227109271050868: 1, 0.019224858629429041: 1, 0.019219046044136025: 1, 0.019216483112948685: 1, 0.019216204481495306: 1, 0.019216148741351358: 1, 0.019215148120656646: 1, 0.0192137823694494: 1, 0.019209239529511611: 1, 0.019207073928560026: 1, 0.019204403605482957: 1, 0.019201872414178263: 1, 0.019199808049308129: 1, 0.019197553633963832: 1, 0.01919344012480222: 1, 0.019189351396392884: 1, 0.019182664766011392: 1, 0.019179102120486742: 1, 0.019175510285233406: 1, 0.01917481094980893: 1, 0.019171397538382175: 1, 0.019170318170662868: 1, 0.019168808728177538: 1, 0.019164363618845971: 1, 0.019164124682003136: 1, 0.019160937697523844: 1, 0.019159957350256298: 1, 0.01915083227897113: 1, 0.019150680899700213: 1, 0.019144883121988011: 1, 0.019141718810590173: 1, 0.019138324489634137: 1, 0.019136923706850932: 1, 0.019134608477818213: 1, 0.019132502608714803: 1, 0.01912405167296944: 1, 0.019119274114527858: 1, 0.019118697832356098: 1, 0.01911673047626538: 1, 0.019111529553017259: 1, 0.019104900256065038: 1, 0.019102672772646666: 1, 0.019101271847312536: 1, 0.019095405774881162: 1, 0.019089948358295: 1, 0.019076106265291055: 1, 0.019067999241075974: 1, 0.019061614396805034: 1, 0.019058124841594238: 1, 0.019050173782714598: 1, 0.01904959131841067: 1, 0.01904257181967408: 1, 0.019036556295735786: 1, 0.019036160127007776: 1, 0.019035313819541461: 1, 0.01903470372193946: 1, 0.019033771964955232: 1, 0.019032344903704299: 1, 0.019031226984312491: 1, 0.019030384183203158: 1, 0.019026930726773226: 1, 0.019025202692305197: 1, 0.019025163250492215: 1, 0.019020340434536574: 1, 0.019018076291011154: 1, 0.019012403549698242: 1, 0.019009809729939039: 1, 0.019005091934445655: 1, 0.019004697167722042: 1, 0.019001382496452234: 1, 0.018988872988907505: 1, 0.018986038723142386: 1, 0.018977107977924377: 1, 0.018975685537118807: 1, 0.018966079620220629: 1, 0.01896509844530913: 1, 0.018959844197723473: 1, 0.018953123809851685: 1, 0.018949349411960269: 1, 0.0189461916834694: 1, 0.01894201687586991: 1, 0.018941458474442664: 1, 0.018936581532839177: 1, 0.018932906271384754: 1, 0.018932255732418982: 1, 0.018931150679461346: 1, 0.018926938271713725: 1, 0.018922329086983922: 1, 0.018920498000769597: 1, 0.018918846259190936: 1, 0.018913852043128149: 1, 0.018913254294898024: 1, 0.018903496781606736: 1, 0.018899912061363926: 1, 0.018899635997263069: 1, 0.018896670460234126: 1, 0.018894815571833437: 1, 0.018894562590439222: 1, 0.018894097996000295: 1, 0.018879317111397353: 1, 0.018876671640107673: 1, 0.018864940801164354: 1, 0.018858677176143458: 1, 0.018855026717275722: 1, 0.018852263244540764: 1, 0.018850989050125597: 1, 0.018849058565437043: 1, 0.018843962008073756: 1, 0.018843298532686698: 1, 0.018842973611973901: 1, 0.018840878087277815: 1, 0.018835051738763535: 1, 0.018834343429106379: 1, 0.018832494062427027: 1, 0.01883097810524623: 1, 0.018828459254969256: 1, 0.018822760853849721: 1, 0.01881456455165717: 1, 0.018812769144034618: 1, 0.018812159239779434: 1, 0.018811617662599416: 1, 0.018811156609783435: 1, 0.018801686073674776: 1, 0.018801537516606126: 1, 0.018798811047630138: 1, 0.018798130767424575: 1, 0.018792878461399706: 1, 0.018788438870116719: 1, 0.018787057798426751: 1, 0.01878670966983613: 1, 0.018786580612307521: 1, 0.01877982644909201: 1, 0.018776357923823955: 1, 0.018773642241821223: 1, 0.018772024672259774: 1, 0.018766581976378927: 1, 0.018761844723696811: 1, 0.018761646905732017: 1, 0.018760032455858729: 1, 0.018757797922112861: 1, 0.018755919713388809: 1, 0.018745332691630031: 1, 0.01874516561157772: 1, 0.018743604244267881: 1, 0.018739714476980543: 1, 0.018737795825865503: 1, 0.018734375568738731: 1, 0.018730144568032899: 1, 0.018728358359745307: 1, 0.018724294813765502: 1, 0.018716787575474177: 1, 0.018711146372626941: 1, 0.018708949078673147: 1, 0.018698380129848431: 1, 0.018698245784473329: 1, 0.018695851660964592: 1, 0.018695737673998999: 1, 0.018692435072225216: 1, 0.018687547238246362: 1, 0.018686936949119722: 1, 0.018684674592254816: 1, 0.018683335741757744: 1, 0.018680036650884684: 1, 0.0186783810096268: 1, 0.018677509684812486: 1, 0.018667163868422178: 1, 0.018660665475521625: 1, 0.018659727569626611: 1, 0.018659212156162605: 1, 0.01865792375385459: 1, 0.018657546342771853: 1, 0.018654475052496188: 1, 0.01865264266705768: 1, 0.018646547149899665: 1, 0.018646035707993031: 1, 0.018641556834161493: 1, 0.018640853021150906: 1, 0.018640823830237956: 1, 0.018639537469535738: 1, 0.018638432509131234: 1, 0.018637471355296101: 1, 0.018637278667590344: 1, 0.018636505328045713: 1, 0.018634942819751005: 1, 0.018632636604845119: 1, 0.018623181015503306: 1, 0.01861930127304744: 1, 0.01861802215899825: 1, 0.018612978501129189: 1, 0.018611817283372158: 1, 0.018601830212333297: 1, 0.018601471564659418: 1, 0.018600683845058613: 1, 0.018597667012128963: 1, 0.01859564708253076: 1, 0.018594506515135324: 1, 0.018585137993542184: 1, 0.018581697835069626: 1, 0.018580506082898116: 1, 0.018578634573022987: 1, 0.018578111712644684: 1, 0.018577528249431135: 1, 0.018567323362340071: 1, 0.018557376458338933: 1, 0.018551816682202016: 1, 0.018549373174087291: 1, 0.018544047416920593: 1, 0.018542362389763919: 1, 0.018541998239595941: 1, 0.018539240675766747: 1, 0.018538950703274243: 1, 0.018531379851021441: 1, 0.018529000121898443: 1, 0.018525715528451458: 1, 0.018519343745080907: 1, 0.018518393070893979: 1, 0.018514899220766677: 1, 0.018514028086479284: 1, 0.018502448867230112: 1, 0.018502140149044354: 1, 0.018498441391213549: 1, 0.01849776065104658: 1, 0.018497566850441453: 1, 0.018494326872164096: 1, 0.018493287602633524: 1, 0.018489960878620183: 1, 0.018488421016174341: 1, 0.018488002628631192: 1, 0.018479408164937282: 1, 0.018478924508212376: 1, 0.018478496088157621: 1, 0.01847772555439952: 1, 0.018468096608969229: 1, 0.018466134078343559: 1, 0.018461496435182793: 1, 0.018461009013519727: 1, 0.018460857529898404: 1, 0.018459757801659194: 1, 0.018456507702902331: 1, 0.0184517559225311: 1, 0.018444670776788272: 1, 0.018443066206882394: 1, 0.018440382101958044: 1, 0.01842868016235933: 1, 0.018426221317799838: 1, 0.018424597088516285: 1, 0.018420431037899216: 1, 0.018417588797549404: 1, 0.018414767835990522: 1, 0.01840729054143625: 1, 0.018406777650115166: 1, 0.018401710405434698: 1, 0.018401414782024471: 1, 0.018401114884226334: 1, 0.018400770382103339: 1, 0.018398805112184578: 1, 0.018397704277042445: 1, 0.018393254213412126: 1, 0.018391705420400244: 1, 0.018389101719203979: 1, 0.018385679560092766: 1, 0.018384565576103944: 1, 0.018376271009488281: 1, 0.018363059477632761: 1, 0.018360318027133622: 1, 0.018358356250310466: 1, 0.018352119874437821: 1, 0.018351185094656899: 1, 0.018344097584089072: 1, 0.018335703058164954: 1, 0.018335061737916155: 1, 0.018331417432656809: 1, 0.018322107723422038: 1, 0.018319153342976641: 1, 0.018318346319296797: 1, 0.018316889430099591: 1, 0.018315621700537847: 1, 0.018311291116164412: 1, 0.018311256621657643: 1, 0.01831093633031336: 1, 0.018303762764179474: 1, 0.018295347701267933: 1, 0.018289340155361145: 1, 0.018282888465953263: 1, 0.0182821536637882: 1, 0.018278318135116486: 1, 0.018275316449787551: 1, 0.01827458209047542: 1, 0.018273734639603471: 1, 0.018272369683735756: 1, 0.018271106928228208: 1, 0.018269836606801416: 1, 0.01826929796213754: 1, 0.018260180006484862: 1, 0.018259398557095761: 1, 0.018254911154269807: 1, 0.018254690355649007: 1, 0.018240885131850973: 1, 0.018237112914980161: 1, 0.01823093587279901: 1, 0.018223463394584083: 1, 0.018217073084737433: 1, 0.018210771865185389: 1, 0.018206993493658348: 1, 0.01820511943315789: 1, 0.018203414053905808: 1, 0.018203364731039288: 1, 0.018202136083828736: 1, 0.018195511506551073: 1, 0.018188997434980154: 1, 0.018186778134711437: 1, 0.01818428732832586: 1, 0.018176254520799628: 1, 0.018171494044469147: 1, 0.018168924952513453: 1, 0.018166999677924761: 1, 0.018165913273650237: 1, 0.018165495657901209: 1, 0.01816438169358997: 1, 0.018150718039545738: 1, 0.018149864731515475: 1, 0.018147338721145538: 1, 0.018142368647735059: 1, 0.018138590280085902: 1, 0.018138231523841801: 1, 0.018137179620306393: 1, 0.018135019744604432: 1, 0.018133013678205176: 1, 0.018125178743808416: 1, 0.018124808073542664: 1, 0.018120710410469205: 1, 0.018118903662708474: 1, 0.018118844129422731: 1, 0.018115779517415595: 1, 0.018109050161012115: 1, 0.018101199579013436: 1, 0.018099768212907211: 1, 0.018099453934354755: 1, 0.018095558893651269: 1, 0.018093166039548018: 1, 0.018087772079283072: 1, 0.018086572761916279: 1, 0.018079813354706355: 1, 0.018077921167797779: 1, 0.018072815653381952: 1, 0.018071864908539317: 1, 0.018069733493871417: 1, 0.018069635286135324: 1, 0.018065784405303455: 1, 0.018064737395810194: 1, 0.018060577096888013: 1, 0.018059743684464984: 1, 0.01805966924388986: 1, 0.018058586269190276: 1, 0.018054905125796758: 1, 0.018054449988594162: 1, 0.018052323201471061: 1, 0.018051364677199977: 1, 0.01804910494143163: 1, 0.018039380990131779: 1, 0.018035158538842837: 1, 0.018026158912953429: 1, 0.01802244218078302: 1, 0.018017987537583699: 1, 0.01801771464201703: 1, 0.018014413892603626: 1, 0.01801046574729135: 1, 0.018010060418439753: 1, 0.018003231470820929: 1, 0.017993593456300909: 1, 0.017993386926721987: 1, 0.017992136599141818: 1, 0.017989135536511571: 1, 0.017986875023502425: 1, 0.017986694225079976: 1, 0.017980952025886992: 1, 0.017980883304615673: 1, 0.017980304831189207: 1, 0.017977043779020124: 1, 0.017975975897737379: 1, 0.017969134088118212: 1, 0.017961594432560193: 1, 0.017956248080962783: 1, 0.017954820085964798: 1, 0.0179542999277259: 1, 0.01795148704962176: 1, 0.017948596859761756: 1, 0.017947988411305009: 1, 0.017947975344026278: 1, 0.017942922844941544: 1, 0.017940192968510724: 1, 0.017939431244630058: 1, 0.017937760488133715: 1, 0.017937609858849006: 1, 0.017936811019151809: 1, 0.017935258838017602: 1, 0.017935098489963434: 1, 0.017933335128073997: 1, 0.017931484484334365: 1, 0.017931448982268422: 1, 0.017926854376555345: 1, 0.017924170761016368: 1, 0.017914799851347838: 1, 0.017914688062993546: 1, 0.017913452180633688: 1, 0.017904904781041262: 1, 0.017897704278011316: 1, 0.01789554325250408: 1, 0.017893873972500137: 1, 0.017893236993587608: 1, 0.017884343495173295: 1, 0.017871149876221116: 1, 0.017865265094423141: 1, 0.017859948162601252: 1, 0.017852641721532177: 1, 0.017846924102073669: 1, 0.017844771945658117: 1, 0.017843960053255916: 1, 0.017842673322966608: 1, 0.017838957750371573: 1, 0.017838766523968128: 1, 0.017838037407256924: 1, 0.017836112605255555: 1, 0.017831192638651287: 1, 0.017825225982823215: 1, 0.017822088972702783: 1, 0.017821410512031587: 1, 0.01781954001833614: 1, 0.017819173191557711: 1, 0.017816135768169032: 1, 0.017810474243593232: 1, 0.017807180034374114: 1, 0.017801613614166809: 1, 0.017795695052788531: 1, 0.017794580578666935: 1, 0.01778916373316021: 1, 0.017785916187922406: 1, 0.017780946937169799: 1, 0.017780883831399918: 1, 0.017779728987221608: 1, 0.017777993682396478: 1, 0.017772681794147257: 1, 0.01776616648827558: 1, 0.017761400175686563: 1, 0.017745844643516532: 1, 0.017736683066574634: 1, 0.017730355605342005: 1, 0.017729311089284848: 1, 0.017728783140908144: 1, 0.01772659522861425: 1, 0.017723109189134594: 1, 0.017718045029776773: 1, 0.01771598910625307: 1, 0.017710090029341444: 1, 0.017704865489631336: 1, 0.017693417658115031: 1, 0.017693008615282967: 1, 0.017692293171932168: 1, 0.017691634538332689: 1, 0.017690698061026588: 1, 0.017690270917133037: 1, 0.017688903639755803: 1, 0.017687327979775277: 1, 0.01768537621457849: 1, 0.017682283719912897: 1, 0.017675075411726152: 1, 0.017673460582829918: 1, 0.017669982336324191: 1, 0.017669560266559338: 1, 0.017667951871505515: 1, 0.017665326498357083: 1, 0.017663635328665769: 1, 0.017662322575917155: 1, 0.017660816721563562: 1, 0.017659550120561859: 1, 0.017657201067624608: 1, 0.017654106593166744: 1, 0.017652326316704447: 1, 0.017645318374841235: 1, 0.017637101694553261: 1, 0.017633029481073408: 1, 0.017631398965767296: 1, 0.017625618829699322: 1, 0.017625611251958648: 1, 0.017624645844673138: 1, 0.017621958349681284: 1, 0.017615836056070967: 1, 0.017609894740070475: 1, 0.017603398855207265: 1, 0.017602354763399088: 1, 0.017601069516425129: 1, 0.01759898233359836: 1, 0.017597797794239343: 1, 0.017590052363048649: 1, 0.01758501258875015: 1, 0.017578351406534975: 1, 0.01756766656508937: 1, 0.017566611197139866: 1, 0.017565791337655831: 1, 0.017551525050916183: 1, 0.017549185991133049: 1, 0.017548438123080087: 1, 0.017548290487546588: 1, 0.017534782053174078: 1, 0.017528095189346778: 1, 0.017523727765424525: 1, 0.017523276706039502: 1, 0.017522888694675061: 1, 0.017517945082508559: 1, 0.017517096395292968: 1, 0.017515963105547983: 1, 0.017514972759512599: 1, 0.017508219471024569: 1, 0.01750791898837338: 1, 0.017506725194546949: 1, 0.01750037400546833: 1, 0.017494322993658943: 1, 0.017492887938302098: 1, 0.017491355172680089: 1, 0.017490953519597192: 1, 0.017489967526328504: 1, 0.017487829273905065: 1, 0.01748691603086043: 1, 0.017482437981134392: 1, 0.017471839251284507: 1, 0.017467636634245141: 1, 0.017467578446431428: 1, 0.017467476364499728: 1, 0.01746538092275865: 1, 0.017463301972978865: 1, 0.017463269377120481: 1, 0.017462086377033205: 1, 0.017460933009970269: 1, 0.017456965352790631: 1, 0.01745313315935506: 1, 0.017449534137583014: 1, 0.017446795676492158: 1, 0.017444931517205185: 1, 0.017444152076539571: 1, 0.01743793654940843: 1, 0.017434823910994567: 1, 0.017433689356140179: 1, 0.017433112225761872: 1, 0.017427965023995705: 1, 0.017426794169186129: 1, 0.017425440369486178: 1, 0.017424923249705786: 1, 0.017420320729066525: 1, 0.017415291768760284: 1, 0.01741424589342784: 1, 0.017396336074547228: 1, 0.017390138396167557: 1, 0.017375294939449955: 1, 0.017366949513052343: 1, 0.017366121061427743: 1, 0.017355279347463698: 1, 0.017350061113995216: 1, 0.017342942555321178: 1, 0.017342099381615891: 1, 0.017326374443919455: 1, 0.017325554836966423: 1, 0.017323799761122617: 1, 0.017321808000701336: 1, 0.017321087223622692: 1, 0.017312617184164505: 1, 0.017308432949623254: 1, 0.017305223012809203: 1, 0.017301484462966567: 1, 0.01730057633995662: 1, 0.017296713279774126: 1, 0.01729665351250588: 1, 0.017294651080473775: 1, 0.017294184834217234: 1, 0.01729311272433369: 1, 0.017280837012905708: 1, 0.017279889152822792: 1, 0.017278575211570356: 1, 0.017272315184277898: 1, 0.017270730262977024: 1, 0.017269399639619591: 1, 0.017266934845717508: 1, 0.017259655184717546: 1, 0.017255802679017121: 1, 0.017253594773604955: 1, 0.017242829158687994: 1, 0.017240422403295371: 1, 0.017234964229711425: 1, 0.017231910225118309: 1, 0.017221541075139221: 1, 0.017208540405085362: 1, 0.017204860574375959: 1, 0.017203354431948051: 1, 0.01719889585343929: 1, 0.017188740723835399: 1, 0.017187477800489147: 1, 0.017177376355837683: 1, 0.017176383276581629: 1, 0.017176329762524339: 1, 0.017173063844251445: 1, 0.017158175487542275: 1, 0.017158030395340033: 1, 0.017156785722447474: 1, 0.017154346898936374: 1, 0.017154107428984704: 1, 0.017153904754315108: 1, 0.017151503496557426: 1, 0.017149213333610375: 1, 0.017140568703351455: 1, 0.0171380522212971: 1, 0.017131989125076373: 1, 0.017130245246919543: 1, 0.017129716841938113: 1, 0.017127826056794304: 1, 0.017126321271317003: 1, 0.017123512869243716: 1, 0.017123115116710261: 1, 0.01711818432012932: 1, 0.017113195089340706: 1, 0.017108790928277218: 1, 0.017107517665218383: 1, 0.017104725917906786: 1, 0.0171001105587444: 1, 0.01709984063470393: 1, 0.017096620747924743: 1, 0.017095032560947594: 1, 0.01709426485434171: 1, 0.017092820080417726: 1, 0.017092624939924524: 1, 0.017089545302658257: 1, 0.017087392678131537: 1, 0.017083293028284957: 1, 0.01707916301578484: 1, 0.017072023968281412: 1, 0.017065257741693485: 1, 0.017060726770909092: 1, 0.017057270222279482: 1, 0.017055033974265384: 1, 0.017052585920392656: 1, 0.017048837877252795: 1, 0.017044862102528646: 1, 0.017044508733209885: 1, 0.017041056046288566: 1, 0.017038364784919869: 1, 0.017031324255829185: 1, 0.017030869908604234: 1, 0.017019742428762141: 1, 0.017011589435178859: 1, 0.017011559757493945: 1, 0.017011101358335719: 1, 0.017008082619178872: 1, 0.017007367419226392: 1, 0.017005408944758667: 1, 0.016999514676399589: 1, 0.016999503184597357: 1, 0.016998214949273519: 1, 0.016996946640144901: 1, 0.016993578110472328: 1, 0.016982302944692187: 1, 0.016982098924037806: 1, 0.016981461121832638: 1, 0.01698058890767638: 1, 0.016979764869196553: 1, 0.016979199184801445: 1, 0.016970539533304539: 1, 0.016964304520872484: 1, 0.016960686588340785: 1, 0.016958202161192482: 1, 0.01695363633637316: 1, 0.01695333974822796: 1, 0.016952083258329552: 1, 0.016947938333053799: 1, 0.01694785597847117: 1, 0.016945055959342509: 1, 0.016934873430045586: 1, 0.016934733778256484: 1, 0.016926059766499586: 1, 0.016921121937424732: 1, 0.016910971852867836: 1, 0.016902705868128129: 1, 0.016901367862311868: 1, 0.016900904053992929: 1, 0.016899772706525047: 1, 0.016899155678140182: 1, 0.016896055467622767: 1, 0.016887068256634327: 1, 0.016886381129952367: 1, 0.01687481372067804: 1, 0.016871985224539903: 1, 0.016870364471886015: 1, 0.016863849969145625: 1, 0.016863544634823521: 1, 0.016849825994686145: 1, 0.016849044717163399: 1, 0.016845533531987381: 1, 0.016845010523838713: 1, 0.016841661471683415: 1, 0.016839430552674915: 1, 0.016836944448708781: 1, 0.016835238198746137: 1, 0.016829341367438272: 1, 0.016826056179411082: 1, 0.016823792062556707: 1, 0.016816870416213308: 1, 0.016816381594083767: 1, 0.016813177812175339: 1, 0.016807147456390503: 1, 0.016801672862742961: 1, 0.016794661247425031: 1, 0.016793764157073995: 1, 0.016780863200867083: 1, 0.016780578755209476: 1, 0.016777787614048963: 1, 0.016776708222568833: 1, 0.016773686932760698: 1, 0.016773594238830056: 1, 0.016772307291418133: 1, 0.016760118371161984: 1, 0.016754069971668298: 1, 0.01675206769403282: 1, 0.016747133246080646: 1, 0.016744949233905709: 1, 0.016744531562039217: 1, 0.016740099197082206: 1, 0.016723784842834523: 1, 0.016720976362227177: 1, 0.016719117906563614: 1, 0.016713290153164011: 1, 0.016709465530256196: 1, 0.016698113508383884: 1, 0.016691110076828011: 1, 0.016688366722333928: 1, 0.016687665169155569: 1, 0.01668544771041271: 1, 0.016680560562306938: 1, 0.016668451744252633: 1, 0.01665719311565865: 1, 0.016655557309629105: 1, 0.016653980903733927: 1, 0.016652233294687322: 1, 0.016641253428421515: 1, 0.016638882884674841: 1, 0.016631167419448145: 1, 0.016624300181350291: 1, 0.016622787202455691: 1, 0.016600897932448896: 1, 0.01660066299776046: 1, 0.016598993472787881: 1, 0.016590224153667496: 1, 0.016588996584701074: 1, 0.016588303494523074: 1, 0.016578934308017643: 1, 0.016577209227516251: 1, 0.016568406595021779: 1, 0.016566976490687335: 1, 0.016561116780110588: 1, 0.016560030852409206: 1, 0.016553460324414005: 1, 0.016551842613509293: 1, 0.01654955913306624: 1, 0.016543511519153235: 1, 0.016541269460206565: 1, 0.016539186139741275: 1, 0.016533037194055637: 1, 0.016531519328181019: 1, 0.016530739730459112: 1, 0.016526717268396017: 1, 0.016526023072682434: 1, 0.016522149148733303: 1, 0.016516551002312745: 1, 0.016515913343815226: 1, 0.016515543345372814: 1, 0.016514089558739769: 1, 0.016513486121254386: 1, 0.01651139678644337: 1, 0.016507350183395952: 1, 0.016504066287013806: 1, 0.016502002795550263: 1, 0.016500336946442637: 1, 0.016497606892392731: 1, 0.016496707752207847: 1, 0.016489232673045171: 1, 0.016486956432165994: 1, 0.016485990925663913: 1, 0.016485000816290937: 1, 0.016479573127379361: 1, 0.016472022575419069: 1, 0.016461703891692166: 1, 0.016455622978016164: 1, 0.016455434991547925: 1, 0.016446696061432745: 1, 0.016438755235890806: 1, 0.016418748669168117: 1, 0.016418214852384972: 1, 0.016417530497760513: 1, 0.016416567769871632: 1, 0.016412952767023568: 1, 0.016406650371635263: 1, 0.016400219722924821: 1, 0.016395433476727152: 1, 0.016387894231108896: 1, 0.016387746305225673: 1, 0.016386225816064241: 1, 0.016377381379140587: 1, 0.016365712449168311: 1, 0.016350505221440159: 1, 0.016344092768998047: 1, 0.016339516682496835: 1, 0.016335090281799577: 1, 0.016334396900926605: 1, 0.016334295054484367: 1, 0.016328358705257135: 1, 0.016328049773691372: 1, 0.016326260893579074: 1, 0.016325588263938543: 1, 0.016321451769749949: 1, 0.016318134446567573: 1, 0.01631777272230138: 1, 0.016314961919818686: 1, 0.01631473336630835: 1, 0.01631032471839735: 1, 0.016306312972428245: 1, 0.016306112023984822: 1, 0.016303717339619925: 1, 0.016297324522125765: 1, 0.016294897869603316: 1, 0.016293416779479854: 1, 0.016291733041421442: 1, 0.016290831408658106: 1, 0.016288270036757785: 1, 0.016281947906134693: 1, 0.0162767901923557: 1, 0.016276079994804769: 1, 0.016272923834048693: 1, 0.016272008572034667: 1, 0.016260099864941265: 1, 0.016259214688074015: 1, 0.016257034156273092: 1, 0.016256607959656749: 1, 0.016254070972139188: 1, 0.016250445007469007: 1, 0.016250189223022321: 1, 0.016248193938404154: 1, 0.016247046205072224: 1, 0.016246453994686841: 1, 0.01624536972221062: 1, 0.016245174160265753: 1, 0.016238304272475895: 1, 0.016237361879182146: 1, 0.016236208043003394: 1, 0.016233644103402504: 1, 0.016233134104771244: 1, 0.016232024711066242: 1, 0.016222282394592346: 1, 0.016221558806316157: 1, 0.016218867724809509: 1, 0.016211357580307128: 1, 0.016210111253917102: 1, 0.016206633632605591: 1, 0.016205169187419974: 1, 0.016195892501311815: 1, 0.016194328540667689: 1, 0.016190721954769643: 1, 0.016186805567664921: 1, 0.016183034648467133: 1, 0.016171260415738558: 1, 0.016169628391317512: 1, 0.016169405303188139: 1, 0.016163889278754673: 1, 0.01615562142994742: 1, 0.016149428322039812: 1, 0.016147994164745334: 1, 0.016139505836136114: 1, 0.016132758899017902: 1, 0.016127041759073878: 1, 0.01612023272979279: 1, 0.016119881257569722: 1, 0.016119462955253617: 1, 0.01611768423254174: 1, 0.01611528033852791: 1, 0.016104798388257211: 1, 0.016074130795540473: 1, 0.016073286866506331: 1, 0.016071833440024056: 1, 0.016071642146804264: 1, 0.016066669857760237: 1, 0.016063544666651188: 1, 0.016063185894852706: 1, 0.016061294456866319: 1, 0.016060632349357278: 1, 0.016055395087246686: 1, 0.016048473326517154: 1, 0.016046551145615963: 1, 0.016045303084578997: 1, 0.016044179727720657: 1, 0.016043372712664369: 1, 0.016043033704223306: 1, 0.016035400108269763: 1, 0.01603170326205236: 1, 0.016027053818990507: 1, 0.016024312956181102: 1, 0.0160182050047568: 1, 0.016003525862898008: 1, 0.015998146250022476: 1, 0.015995618490220596: 1, 0.015977243071734603: 1, 0.015975009253306294: 1, 0.015971292318152142: 1, 0.015971010736142696: 1, 0.015964604788926643: 1, 0.015961351761698651: 1, 0.015957964201174693: 1, 0.015950871868107605: 1, 0.015949259488197125: 1, 0.015943337227155876: 1, 0.015933489111567844: 1, 0.015933163166687164: 1, 0.015928159255958186: 1, 0.015927394543003546: 1, 0.015923960522389959: 1, 0.015922210432195417: 1, 0.015913317750275373: 1, 0.015909591486379042: 1, 0.015909235946424908: 1, 0.015904293150253167: 1, 0.015899259112574265: 1, 0.01589199026545322: 1, 0.015889334284703405: 1, 0.015883563577293931: 1, 0.015866199360598267: 1, 0.015859492955794693: 1, 0.015853100726626136: 1, 0.015850043719095583: 1, 0.015849019812143979: 1, 0.015848733004688125: 1, 0.015841313086216079: 1, 0.015839969578688162: 1, 0.015838043572550503: 1, 0.015827299079195133: 1, 0.015821946883654348: 1, 0.015811461305080758: 1, 0.015809006698694159: 1, 0.01580844805408424: 1, 0.015808009665767099: 1, 0.015805405049532432: 1, 0.015804436585514871: 1, 0.015788613059121822: 1, 0.015788472401889422: 1, 0.015787236929179851: 1, 0.015781744753906181: 1, 0.015779276841791652: 1, 0.015774135464954868: 1, 0.015768934077864692: 1, 0.015768053393329467: 1, 0.015762210210439338: 1, 0.015759098088421814: 1, 0.01575769420425719: 1, 0.015746259343840795: 1, 0.015742478812851762: 1, 0.015741686589876333: 1, 0.015737952480917094: 1, 0.015737046047541246: 1, 0.015735898485478197: 1, 0.015735662443360103: 1, 0.015733994585065407: 1, 0.015733170765869591: 1, 0.01573193403150281: 1, 0.015722499003478611: 1, 0.015720874080714209: 1, 0.015720412842306249: 1, 0.01571500507188409: 1, 0.015710265070052055: 1, 0.015706647510736124: 1, 0.01570646416800266: 1, 0.015704718906860517: 1, 0.015692638277852371: 1, 0.015692222575822982: 1, 0.015684155900221153: 1, 0.01566538640716552: 1, 0.015652447816669506: 1, 0.015650971246356563: 1, 0.015649549524727698: 1, 0.015638271068421462: 1, 0.015635562638468992: 1, 0.015632855217434457: 1, 0.015623920513926182: 1, 0.015622298618677794: 1, 0.015612198482992425: 1, 0.015601381085579243: 1, 0.0155976035114999: 1, 0.015578187342459724: 1, 0.015576874948240022: 1, 0.015572505407090964: 1, 0.015562621874420791: 1, 0.015561363040412798: 1, 0.015561217651246396: 1, 0.015559000472431009: 1, 0.015558607361300146: 1, 0.015554493973249789: 1, 0.015552420216627725: 1, 0.015550989126984834: 1, 0.01554163172030973: 1, 0.015535219866140083: 1, 0.015532214158578288: 1, 0.015531165344907324: 1, 0.015524691548530358: 1, 0.015524563851936637: 1, 0.015522330348042431: 1, 0.015518528735124798: 1, 0.015517820122251589: 1, 0.015508501394727691: 1, 0.015507650479616452: 1, 0.015507436499240471: 1, 0.015506238048917004: 1, 0.015494823573429579: 1, 0.015487978938119512: 1, 0.0154871642142454: 1, 0.015485778913206936: 1, 0.01548077154126201: 1, 0.0154793821205007: 1, 0.015477553135983136: 1, 0.015469064679222155: 1, 0.015461810535395467: 1, 0.01545839101731188: 1, 0.015448956387923207: 1, 0.015442743167389783: 1, 0.015442332881914248: 1, 0.015442048879919273: 1, 0.015439572391376832: 1, 0.015427841411994258: 1, 0.015425981769533076: 1, 0.015421231344648624: 1, 0.015420672719238061: 1, 0.015418890709290941: 1, 0.015418598763840942: 1, 0.015417956452350307: 1, 0.01541644836872446: 1, 0.015416250469448313: 1, 0.015413734865604961: 1, 0.015412539689279511: 1, 0.015403693978231318: 1, 0.015400550103719485: 1, 0.015387881403061195: 1, 0.015382383773762495: 1, 0.015381996695419583: 1, 0.015379374344990383: 1, 0.015375768769663574: 1, 0.015370927351501253: 1, 0.015361313063468494: 1, 0.015361057380059176: 1, 0.015356783754320716: 1, 0.015353116043120726: 1, 0.015353054435842475: 1, 0.015347755557282031: 1, 0.015347112088904248: 1, 0.01534008951261389: 1, 0.015334261800297021: 1, 0.015329119787773651: 1, 0.015326285219341072: 1, 0.015324035544947896: 1, 0.015321038608735522: 1, 0.015315380626618139: 1, 0.015314579624848093: 1, 0.015310849062253105: 1, 0.015302751421475639: 1, 0.015300833269866757: 1, 0.015293309347651409: 1, 0.015271300328484774: 1, 0.015271002368742369: 1, 0.01526569885390174: 1, 0.015264239516854475: 1, 0.015259487126473879: 1, 0.015257990153196295: 1, 0.01525674617347343: 1, 0.015255483498849236: 1, 0.01525440150685628: 1, 0.015253486036997877: 1, 0.01525145708849358: 1, 0.01524991494061461: 1, 0.015249269723646326: 1, 0.015249164311138288: 1, 0.015248673557034104: 1, 0.015244264004383966: 1, 0.015240702452150326: 1, 0.015239988908303199: 1, 0.015229170273746526: 1, 0.015228079250194614: 1, 0.015222795839586845: 1, 0.015217740317269534: 1, 0.015215654600451925: 1, 0.015211946113803904: 1, 0.015207895702084235: 1, 0.01520533210948989: 1, 0.015199312021713703: 1, 0.015191349207803417: 1, 0.015189580590812017: 1, 0.015187423274086894: 1, 0.015182778546421149: 1, 0.015175258818373821: 1, 0.015169031922787542: 1, 0.015165216917113044: 1, 0.015164018926177917: 1, 0.015161755650502278: 1, 0.015149867507044258: 1, 0.015145248520922451: 1, 0.015135326450485674: 1, 0.01513098469178953: 1, 0.015129018623788976: 1, 0.015119881790553008: 1, 0.015116423690782116: 1, 0.015111311835660557: 1, 0.015109705093978984: 1, 0.015109317363152859: 1, 0.01510861756506213: 1, 0.015100160169014842: 1, 0.015096702658419225: 1, 0.015096002725322607: 1, 0.015091889909637638: 1, 0.015089542692981768: 1, 0.015089468531195161: 1, 0.015087235769710793: 1, 0.015086741626674408: 1, 0.015086029264077131: 1, 0.015082970981412057: 1, 0.015081304217824363: 1, 0.015073787243706031: 1, 0.015073504639921683: 1, 0.015061339054110362: 1, 0.015055867518128343: 1, 0.015055044913998302: 1, 0.015053746645235795: 1, 0.015053537758129103: 1, 0.015050148089622319: 1, 0.015048062834236282: 1, 0.015043765297922387: 1, 0.015037313603019242: 1, 0.015019912807218271: 1, 0.015019858524565517: 1, 0.015017937131637557: 1, 0.01501634469575102: 1, 0.015015107980381739: 1, 0.015011513211601385: 1, 0.015010466048108675: 1, 0.015009711090497512: 1, 0.015001134629375357: 1, 0.015000460756151513: 1, 0.014969397486811063: 1, 0.01496699745640985: 1, 0.014965947432002278: 1, 0.014965361972546653: 1, 0.014962477945611188: 1, 0.014959391834682787: 1, 0.014944732440381248: 1, 0.014938312359274706: 1, 0.014936796801930882: 1, 0.014936526180810658: 1, 0.01493337953060052: 1, 0.014927820881684092: 1, 0.014925103372292893: 1, 0.014908974898238857: 1, 0.01489640046133258: 1, 0.01489584306002872: 1, 0.014894314723395573: 1, 0.014889391113261784: 1, 0.014881113571801042: 1, 0.014874399808206595: 1, 0.014872186255015209: 1, 0.014865321835624605: 1, 0.014863994881981505: 1, 0.014861638623665021: 1, 0.014860802305044133: 1, 0.014860591933437856: 1, 0.014856308349376448: 1, 0.014849768325243203: 1, 0.01484963962443887: 1, 0.014846831804354092: 1, 0.014840607174776076: 1, 0.014836079786381949: 1, 0.014832999993598044: 1, 0.014828061781288118: 1, 0.014824571030731731: 1, 0.014823061707661301: 1, 0.014822802604285659: 1, 0.014819159533957753: 1, 0.01481491229320474: 1, 0.014814727936445508: 1, 0.014813077983197479: 1, 0.014811619290009995: 1, 0.014806160404710311: 1, 0.014802765770783953: 1, 0.014794560418172509: 1, 0.014792915589122041: 1, 0.014783769645725638: 1, 0.014782521507064723: 1, 0.014775523466801289: 1, 0.014772335549877955: 1, 0.014767949809812404: 1, 0.014758367921540099: 1, 0.014754350693241342: 1, 0.014739989660113563: 1, 0.014731150837816676: 1, 0.014730611278974834: 1, 0.014730042872428215: 1, 0.014723032614786814: 1, 0.014722040212325285: 1, 0.014705732188516753: 1, 0.014704436681804923: 1, 0.014702713976061273: 1, 0.01469513218643298: 1, 0.01468941173994541: 1, 0.014677110897396093: 1, 0.014672589318140208: 1, 0.014656753570817476: 1, 0.014655621166729634: 1, 0.014637349178204343: 1, 0.014636482514082651: 1, 0.014632040613780199: 1, 0.01463077933943786: 1, 0.014627358150229579: 1, 0.014624748689973321: 1, 0.014622924037685815: 1, 0.014621994780211785: 1, 0.014621549717864774: 1, 0.014612670405386555: 1, 0.014612619588090327: 1, 0.014610549367530637: 1, 0.014604880691532113: 1, 0.014594000117572184: 1, 0.014577160648126784: 1, 0.014575829179664785: 1, 0.014569972304808297: 1, 0.014568309799397834: 1, 0.014563407279501246: 1, 0.014558388658745036: 1, 0.014558247921377252: 1, 0.014550904501858093: 1, 0.0145455120491514: 1, 0.01454305797233469: 1, 0.014536692411761065: 1, 0.014536316566891836: 1, 0.014535799332842065: 1, 0.014529469484811012: 1, 0.014526806715552053: 1, 0.014522335564717321: 1, 0.014512438527219756: 1, 0.014509577949051574: 1, 0.014500159169187621: 1, 0.014497828918716543: 1, 0.014496323625300272: 1, 0.014494900149337854: 1, 0.014486180173291844: 1, 0.014480192680932641: 1, 0.014473335766333716: 1, 0.014468836799521038: 1, 0.014464447192271204: 1, 0.014463385789560882: 1, 0.014458080689043099: 1, 0.014449947372941328: 1, 0.014446856459435562: 1, 0.014444451901368333: 1, 0.014438133889286445: 1, 0.01442856975963195: 1, 0.014426983317761511: 1, 0.014426175728640082: 1, 0.014418598521262269: 1, 0.014417527668478869: 1, 0.01441573254713383: 1, 0.014407441648476706: 1, 0.014401066759289682: 1, 0.014400777386752408: 1, 0.014399508366377864: 1, 0.014399059257503868: 1, 0.014396740045157876: 1, 0.014383276143600231: 1, 0.014375730704642087: 1, 0.014364887898202484: 1, 0.01436266422709938: 1, 0.014341024195175764: 1, 0.014338212959113578: 1, 0.014333406414773027: 1, 0.014333174371088319: 1, 0.014322523342815457: 1, 0.014321229331790936: 1, 0.014317857600180646: 1, 0.014317611323091848: 1, 0.01431148199600603: 1, 0.014308111219310766: 1, 0.014304784765821053: 1, 0.014303434550796164: 1, 0.014300970075548255: 1, 0.014300439327902313: 1, 0.014293901829849919: 1, 0.014292773320048777: 1, 0.014292613497553787: 1, 0.01428841197136739: 1, 0.014266640178788779: 1, 0.014260952124638088: 1, 0.01425853037837249: 1, 0.014254975822686698: 1, 0.014246720802182833: 1, 0.014245167775589937: 1, 0.014225681699206584: 1, 0.014223490620749665: 1, 0.014223156680800219: 1, 0.014222870978183156: 1, 0.014220383995817858: 1, 0.014219242863601506: 1, 0.014219102142059702: 1, 0.014218362929141491: 1, 0.014217568673854028: 1, 0.014216975633859727: 1, 0.014213294342555347: 1, 0.014212599249518353: 1, 0.014201953971227031: 1, 0.014184097216037424: 1, 0.014177941160972447: 1, 0.01417047342449728: 1, 0.014157034316125475: 1, 0.014153794182808739: 1, 0.014153757331815144: 1, 0.014149050979492865: 1, 0.014146684549046603: 1, 0.014141866671403271: 1, 0.014128226890620033: 1, 0.014126489914509446: 1, 0.014123921027609964: 1, 0.01412160005879131: 1, 0.014115350713755664: 1, 0.014108589268245195: 1, 0.014107202083200716: 1, 0.01410016553389795: 1, 0.014090656068029193: 1, 0.014088165405074935: 1, 0.01408231389219966: 1, 0.014077754308920672: 1, 0.014074045567980783: 1, 0.014073291144387262: 1, 0.014071415051899971: 1, 0.01407120280645608: 1, 0.014067792620645008: 1, 0.014058143905355291: 1, 0.014054133589529411: 1, 0.01404514991856372: 1, 0.014044672549928307: 1, 0.014043253554943061: 1, 0.014035886753002264: 1, 0.014028805068000314: 1, 0.014027776738816092: 1, 0.014026946313504065: 1, 0.014022894970507654: 1, 0.014016390521979612: 1, 0.014016358521146435: 1, 0.014015862908853469: 1, 0.013999243891333609: 1, 0.01399826293970103: 1, 0.013998170562508612: 1, 0.013984926767153218: 1, 0.0139784542317872: 1, 0.013978026372338739: 1, 0.013973050999190623: 1, 0.013970077240537268: 1, 0.013965788183349868: 1, 0.013963767811300098: 1, 0.013961191179806645: 1, 0.013959087620607987: 1, 0.013958269134630361: 1, 0.013956774725591301: 1, 0.013952966149293091: 1, 0.013950026020794162: 1, 0.013943066433317251: 1, 0.01394017674791662: 1, 0.013916945853684521: 1, 0.013914863638579682: 1, 0.013901774967765228: 1, 0.013886670506285313: 1, 0.013878733970471091: 1, 0.013873462153430147: 1, 0.013867646930215: 1, 0.013866233258911365: 1, 0.013861755129713306: 1, 0.013844804197130743: 1, 0.013835670664012274: 1, 0.01383282393176391: 1, 0.013826667748117083: 1, 0.013826627482644667: 1, 0.013826033586297561: 1, 0.013824155611798682: 1, 0.013820524360383696: 1, 0.013815826566016192: 1, 0.013814828084235977: 1, 0.013812504318674706: 1, 0.013810301760189242: 1, 0.013809007010043013: 1, 0.013808650706337961: 1, 0.013803133474134161: 1, 0.013792919680677149: 1, 0.013780865427238909: 1, 0.013780558614207405: 1, 0.013778765236828323: 1, 0.013777111230308304: 1, 0.013767848536960219: 1, 0.013766949781012934: 1, 0.013763428124975993: 1, 0.013744246965063801: 1, 0.013742984703510165: 1, 0.013741492542400759: 1, 0.013737869736292856: 1, 0.013737367464161751: 1, 0.013734582372462691: 1, 0.013726436256979417: 1, 0.013723352207954386: 1, 0.013719121534708018: 1, 0.013719088478610027: 1, 0.013712516273581603: 1, 0.013711881569563964: 1, 0.013710284677007672: 1, 0.013708034679582422: 1, 0.01370725254267725: 1, 0.01370509705312772: 1, 0.013691863831368778: 1, 0.013680041854064094: 1, 0.013679537344770717: 1, 0.013677816848092713: 1, 0.013677471366691448: 1, 0.013676919868681936: 1, 0.013676448129348812: 1, 0.013673517169472002: 1, 0.01366900670735733: 1, 0.013660323499121822: 1, 0.01365827863005984: 1, 0.013653427753143809: 1, 0.013648344075501122: 1, 0.01364749400066706: 1, 0.013647236922194184: 1, 0.013646104913502106: 1, 0.013640933620447281: 1, 0.013629779453020479: 1, 0.013626082339034798: 1, 0.013625652801019145: 1, 0.013618001600378508: 1, 0.013612443639800508: 1, 0.013610459739283647: 1, 0.013608006703397136: 1, 0.013604099373893378: 1, 0.01359975426068563: 1, 0.013597555730038662: 1, 0.013596339994117076: 1, 0.013592356758703933: 1, 0.013589275920840898: 1, 0.013576252781295726: 1, 0.013573723143449446: 1, 0.013566711488125211: 1, 0.013562395678370708: 1, 0.013557222547073871: 1, 0.013549896751828818: 1, 0.013539437424892152: 1, 0.013533318616222083: 1, 0.013530416728493365: 1, 0.013519545549868115: 1, 0.013516010354173238: 1, 0.013511048169103822: 1, 0.013504165087303859: 1, 0.013498879033650886: 1, 0.013493661941387243: 1, 0.013486606248433865: 1, 0.013486570363801825: 1, 0.013483132363715606: 1, 0.013481423837099616: 1, 0.013476561194580572: 1, 0.013474210299061427: 1, 0.013457661514577075: 1, 0.013456908372979397: 1, 0.013452900757765725: 1, 0.013450718710624837: 1, 0.01344103019413213: 1, 0.013437699407193296: 1, 0.01343684934114282: 1, 0.013429938535489563: 1, 0.013429765498703209: 1, 0.013420672377179216: 1, 0.013417523178508617: 1, 0.013406552760967728: 1, 0.013390817386512035: 1, 0.013386852898358477: 1, 0.013385342068104739: 1, 0.013382790134005567: 1, 0.01337957076156561: 1, 0.01337618205625905: 1, 0.013368497365608661: 1, 0.013360375374014917: 1, 0.013353421954190965: 1, 0.01334933754498514: 1, 0.013349311047604633: 1, 0.013337560784274564: 1, 0.013337398532456659: 1, 0.013335971713333054: 1, 0.013329896376011056: 1, 0.013323589985253683: 1, 0.013322943501829077: 1, 0.013321825723716893: 1, 0.013321586051607617: 1, 0.013319760955828359: 1, 0.013316862906069399: 1, 0.013309654102304867: 1, 0.013308613790016771: 1, 0.013308145339233409: 1, 0.013304215703347458: 1, 0.013299398339632749: 1, 0.013294442086075577: 1, 0.013293963959192405: 1, 0.013291161844722272: 1, 0.013288569886767873: 1, 0.013283731685716232: 1, 0.01328150598455877: 1, 0.013267905979941891: 1, 0.013260488705462146: 1, 0.013259726065839996: 1, 0.013254482693756771: 1, 0.013251995448492617: 1, 0.013248012355391303: 1, 0.013244484702248555: 1, 0.013241990833265885: 1, 0.013235521524717287: 1, 0.013234417606069034: 1, 0.013230367551152086: 1, 0.013224564344758417: 1, 0.013217357251282487: 1, 0.013207524225387589: 1, 0.013196184727736208: 1, 0.013195590240274436: 1, 0.013193272850065843: 1, 0.013193136823206551: 1, 0.013185741348650913: 1, 0.013179352698755108: 1, 0.013178564775533596: 1, 0.013162563139730649: 1, 0.013160379583019842: 1, 0.013157255884430556: 1, 0.013155208804317708: 1, 0.013150742253767875: 1, 0.013141354068759128: 1, 0.013135368111919652: 1, 0.013135171485430015: 1, 0.013127001732683422: 1, 0.013116703700704677: 1, 0.013116284475278402: 1, 0.013113751314356182: 1, 0.013109609559575651: 1, 0.013107961984165348: 1, 0.013092681558500418: 1, 0.013092499399606158: 1, 0.013075583905471939: 1, 0.013056817040562052: 1, 0.013048115244935181: 1, 0.013040198862792: 1, 0.013037071310282908: 1, 0.013025433111356136: 1, 0.013023057841137168: 1, 0.013021661654582914: 1, 0.013017295849239042: 1, 0.013016699138815696: 1, 0.013013228340562982: 1, 0.013008719109534321: 1, 0.013007556109889733: 1, 0.013001256735353814: 1, 0.012995951826781465: 1, 0.0129958585240293: 1, 0.012992519308730237: 1, 0.012983277045769279: 1, 0.012981808697195877: 1, 0.012979850976315379: 1, 0.012979067367198761: 1, 0.012975323263489326: 1, 0.012972298978731815: 1, 0.012970587658847572: 1, 0.012968923460794285: 1, 0.012967029174542467: 1, 0.01295883047776528: 1, 0.012958523912473891: 1, 0.012958091628134114: 1, 0.012955520432596833: 1, 0.012951082975023653: 1, 0.012948705351512782: 1, 0.012946541291192232: 1, 0.012944856871688434: 1, 0.012938272578287226: 1, 0.012937594278556178: 1, 0.012924836617074095: 1, 0.012923434405033303: 1, 0.012919803190202731: 1, 0.012911412848061792: 1, 0.012905868689097126: 1, 0.012898305612460177: 1, 0.012885292542484952: 1, 0.0128840342095399: 1, 0.0128824004705394: 1, 0.012870718616599285: 1, 0.012869669649812478: 1, 0.012858763333573846: 1, 0.012849149976436158: 1, 0.012838676069521956: 1, 0.012836517903274707: 1, 0.012835175679068009: 1, 0.012833639117683524: 1, 0.012831939224575359: 1, 0.012831509672215686: 1, 0.012830545521258768: 1, 0.012828255977477596: 1, 0.012821972918357355: 1, 0.012820855716663405: 1, 0.012819348875948116: 1, 0.012808247063841118: 1, 0.012794212781980238: 1, 0.012786456496784088: 1, 0.012786110347056305: 1, 0.012784670458921187: 1, 0.012784637268469574: 1, 0.012784461238527077: 1, 0.012782910065289425: 1, 0.012780240576836088: 1, 0.012770357769225492: 1, 0.01276880109145887: 1, 0.012766582824084275: 1, 0.012760917185458274: 1, 0.012755600181887969: 1, 0.012751551520493908: 1, 0.012742596000132689: 1, 0.012732787039488241: 1, 0.01272518610665389: 1, 0.012718697158272157: 1, 0.012717141215109036: 1, 0.012714145713141438: 1, 0.012712396593622765: 1, 0.012700912343471404: 1, 0.012698720413466147: 1, 0.012696169403640505: 1, 0.012690055445389169: 1, 0.01268821961786692: 1, 0.012687726369202151: 1, 0.012673554949183879: 1, 0.012656538991728925: 1, 0.012654689829898751: 1, 0.012634629058399776: 1, 0.012633512080418866: 1, 0.012631510019026624: 1, 0.012620401354712912: 1, 0.012617293424631824: 1, 0.012617276692329062: 1, 0.012614953394081757: 1, 0.012610661870862091: 1, 0.012609562514907989: 1, 0.012601401959211059: 1, 0.012593779816754297: 1, 0.012575303171977727: 1, 0.012569472179772143: 1, 0.012569458689504431: 1, 0.012563870080247307: 1, 0.01255645808867728: 1, 0.012553753542295772: 1, 0.012553655255273247: 1, 0.012542223474426493: 1, 0.012538985528707343: 1, 0.012529563632925941: 1, 0.012525792992644107: 1, 0.012523216973465798: 1, 0.012521246076271881: 1, 0.012518692004194032: 1, 0.012516770978323696: 1, 0.012514386542204756: 1, 0.012504245426740435: 1, 0.012496710118724278: 1, 0.012492569513199899: 1, 0.012487969865096902: 1, 0.01248614305570701: 1, 0.012485385168895267: 1, 0.012484999228070967: 1, 0.012479917282247446: 1, 0.012477885469522151: 1, 0.012473422379815914: 1, 0.012468721495747178: 1, 0.012468017065392604: 1, 0.012458169036436016: 1, 0.012455951982039044: 1, 0.012455036640181267: 1, 0.012454446473065053: 1, 0.012451068472538154: 1, 0.012448036433144493: 1, 0.012447171469431112: 1, 0.012438353479973416: 1, 0.012437051289256177: 1, 0.012436604202609322: 1, 0.012433661388875224: 1, 0.012433628419693431: 1, 0.012423033090730669: 1, 0.01242250360514869: 1, 0.012420846758334478: 1, 0.012415444909740196: 1, 0.012414801697679096: 1, 0.012412721344437955: 1, 0.012407146387064305: 1, 0.012405519768235097: 1, 0.012400592241949029: 1, 0.012396587436385992: 1, 0.012396348466488814: 1, 0.012396252391800261: 1, 0.012385701402698962: 1, 0.012384664015074792: 1, 0.012377744261102799: 1, 0.012366602075677158: 1, 0.012356604506561727: 1, 0.012352893701136691: 1, 0.012351005059466321: 1, 0.012348249448397231: 1, 0.012345293179590055: 1, 0.012338686794282693: 1, 0.012335924628424167: 1, 0.012335642020124753: 1, 0.012330238609957654: 1, 0.012325444079265491: 1, 0.012316187367471903: 1, 0.012312572611685255: 1, 0.012312451440277107: 1, 0.012302948634809407: 1, 0.01229506830175554: 1, 0.012293168424685072: 1, 0.012291900573984776: 1, 0.012281364570019014: 1, 0.012278881916061702: 1, 0.012273836948948338: 1, 0.012270617443649752: 1, 0.012267172007445214: 1, 0.012261640900083446: 1, 0.012259516065103691: 1, 0.012252961366243277: 1, 0.012247184471975626: 1, 0.012243758463702101: 1, 0.012240617885303139: 1, 0.012236776106093517: 1, 0.012228108995497856: 1, 0.012220498997687953: 1, 0.012208338790383386: 1, 0.012197465890449706: 1, 0.012193674068400969: 1, 0.012190345662055582: 1, 0.012190292142965305: 1, 0.012177220171069052: 1, 0.012157195082962135: 1, 0.012150056083157803: 1, 0.012149620720171575: 1, 0.012148158532971716: 1, 0.012146616961031193: 1, 0.012146190055954294: 1, 0.012145227164930184: 1, 0.012141730544627116: 1, 0.012138124274171547: 1, 0.012137886356666292: 1, 0.012133706327344399: 1, 0.012131964023284297: 1, 0.012130464582525251: 1, 0.012123274978672745: 1, 0.012121351195674035: 1, 0.012117571138698623: 1, 0.012115818385698401: 1, 0.012113352810531351: 1, 0.012107248439434067: 1, 0.012101662792683298: 1, 0.01210055954097637: 1, 0.012091604663605484: 1, 0.012087525502066449: 1, 0.012085920446205: 1, 0.012084002217770999: 1, 0.01208368936035794: 1, 0.012072728645432719: 1, 0.012064770864538348: 1, 0.012064400806669926: 1, 0.01205816641389563: 1, 0.012048383564855773: 1, 0.012047657670947107: 1, 0.012018497882291377: 1, 0.012018280072778467: 1, 0.012016011484287471: 1, 0.012014533389274228: 1, 0.012009949393922392: 1, 0.012008741362651034: 1, 0.012001302618831873: 1, 0.011997473140220333: 1, 0.011988987984558278: 1, 0.011988743317066997: 1, 0.011987698540392312: 1, 0.01198514263688532: 1, 0.011981361653629057: 1, 0.011980577958358021: 1, 0.011979498153079027: 1, 0.011978655507920561: 1, 0.01197320473347694: 1, 0.011972107759017293: 1, 0.011971498614987849: 1, 0.011963658041125895: 1, 0.011961984988279384: 1, 0.011959887603233861: 1, 0.011955762642436195: 1, 0.011950916211479081: 1, 0.011948458873208339: 1, 0.011945993259678541: 1, 0.01193771785759918: 1, 0.011928604697284795: 1, 0.011927335727817658: 1, 0.011920840012558298: 1, 0.011910083555969529: 1, 0.011908316199263393: 1, 0.011906375794019122: 1, 0.01190275597120196: 1, 0.011899731088668732: 1, 0.011881833576832958: 1, 0.011876620055945983: 1, 0.011871537013307841: 1, 0.011869699815554613: 1, 0.011868543680345307: 1, 0.011866262117671581: 1, 0.011857966670137285: 1, 0.011857249535405472: 1, 0.011853961956738459: 1, 0.011853479269768938: 1, 0.011851131141897803: 1, 0.011840874288911259: 1, 0.011840217436365324: 1, 0.01183637283490839: 1, 0.011835194677353141: 1, 0.011831288606589892: 1, 0.011821876337352863: 1, 0.011802305624586465: 1, 0.01180120645441424: 1, 0.011797813056830954: 1, 0.011790085713275724: 1, 0.011787417045867069: 1, 0.011787009148404191: 1, 0.011775042921427219: 1, 0.011769245160025943: 1, 0.01175924927105994: 1, 0.011740889350194199: 1, 0.011739847922575571: 1, 0.011738691259387569: 1, 0.011737984604247695: 1, 0.011723971766553983: 1, 0.011722332098563064: 1, 0.011716574481467625: 1, 0.011693325271951317: 1, 0.011680383960576119: 1, 0.011672361384033946: 1, 0.011667600996273845: 1, 0.011663741235433787: 1, 0.011661881164598849: 1, 0.01164720669749611: 1, 0.011639928361962851: 1, 0.01163868504112398: 1, 0.011627711833294602: 1, 0.011624241964462994: 1, 0.011618670076105486: 1, 0.01159307599320138: 1, 0.011586020993004762: 1, 0.01158124295026664: 1, 0.011574837323277271: 1, 0.011570183604153361: 1, 0.011559438443469329: 1, 0.011558275556467478: 1, 0.011546842371297336: 1, 0.011546303951140801: 1, 0.011542230617306843: 1, 0.011540207108298195: 1, 0.011538874143039108: 1, 0.011537874262937948: 1, 0.01149880675152052: 1, 0.011498791164662124: 1, 0.011485355504560724: 1, 0.011482933267508053: 1, 0.011478203048842114: 1, 0.011460889688477799: 1, 0.011449167843785288: 1, 0.011447615215349639: 1, 0.011444863186498733: 1, 0.011441850512136958: 1, 0.011438519847079666: 1, 0.01143608379958384: 1, 0.011435307181883021: 1, 0.01143457542778417: 1, 0.011427310216112804: 1, 0.011417927913313204: 1, 0.011403348201179869: 1, 0.011400416153069083: 1, 0.011397256413972906: 1, 0.011380816168862697: 1, 0.011374905336362769: 1, 0.011372259748030789: 1, 0.011371993916153213: 1, 0.011371304467283207: 1, 0.011367712847327682: 1, 0.011356479525389571: 1, 0.01135483293349988: 1, 0.011322473494291959: 1, 0.011322293690845966: 1, 0.011321258932950294: 1, 0.011319876630552134: 1, 0.011310646645966215: 1, 0.01130592790548317: 1, 0.011304894808997053: 1, 0.011304401689601364: 1, 0.011299421058405907: 1, 0.011297551683889163: 1, 0.011287948183943724: 1, 0.011284148555957838: 1, 0.011283231245588072: 1, 0.011282696037513973: 1, 0.011276745982076796: 1, 0.011265632726359678: 1, 0.011262350886854958: 1, 0.011258935055772185: 1, 0.01125592415566294: 1, 0.011251904054909752: 1, 0.011250848500022226: 1, 0.011248253647321082: 1, 0.01124481818922375: 1, 0.011237751336129795: 1, 0.011230250491392681: 1, 0.011223844480932598: 1, 0.011221524905716367: 1, 0.011212666566500351: 1, 0.011204870744839387: 1, 0.011197868029161092: 1, 0.011197317525366401: 1, 0.011185518268305541: 1, 0.0111842568469348: 1, 0.01118377868451253: 1, 0.011179726942421456: 1, 0.011173310726967646: 1, 0.011172905256423145: 1, 0.011153425320005676: 1, 0.011148974315597367: 1, 0.011137821022151318: 1, 0.011133218223976449: 1, 0.011126494841577588: 1, 0.011123386390421767: 1, 0.011115744601587664: 1, 0.011112229642106475: 1, 0.011104552770351587: 1, 0.011098055921014538: 1, 0.011096454985068362: 1, 0.011095882251978691: 1, 0.011092844052233798: 1, 0.011086234158354795: 1, 0.011082739515139941: 1, 0.011080159985071013: 1, 0.011071996165332457: 1, 0.011070007003834256: 1, 0.011068590965563068: 1, 0.011068127240449506: 1, 0.011057994278398958: 1, 0.011056845175174732: 1, 0.011042621132275582: 1, 0.011042405637207705: 1, 0.011035291877025191: 1, 0.011033626416267345: 1, 0.011032585179470238: 1, 0.01100774877311053: 1, 0.011005514536283321: 1, 0.011005184496276264: 1, 0.010999981832966157: 1, 0.010998066754407666: 1, 0.010994705429537059: 1, 0.010981515216820427: 1, 0.010977399510547397: 1, 0.010974870859094895: 1, 0.010952318826213787: 1, 0.010952247666969759: 1, 0.010932189497471743: 1, 0.010918380349167565: 1, 0.010913009706387285: 1, 0.01089382700961438: 1, 0.010883858450549212: 1, 0.010877918491165194: 1, 0.010876555562079291: 1, 0.010874403786501998: 1, 0.010873956460850369: 1, 0.010873872069510637: 1, 0.010872774157657606: 1, 0.010867844345990281: 1, 0.010854085975877928: 1, 0.01085086502018719: 1, 0.010849604695363328: 1, 0.010835604319158167: 1, 0.010826590117568537: 1, 0.010825841277556637: 1, 0.010818922546376165: 1, 0.010812789141974082: 1, 0.010806715884687346: 1, 0.010806612710871563: 1, 0.010799670399200845: 1, 0.010789887068496616: 1, 0.010789633366996412: 1, 0.010789419473875697: 1, 0.010782848656616367: 1, 0.010773705324950821: 1, 0.010763961471029124: 1, 0.010760520142356367: 1, 0.010756159605471403: 1, 0.010755740733155194: 1, 0.010750321673319893: 1, 0.010747007628376496: 1, 0.010738980779323493: 1, 0.010736539456349347: 1, 0.010733924339875141: 1, 0.010731799248545313: 1, 0.010728918384087363: 1, 0.010728143252462229: 1, 0.010714130482948976: 1, 0.010692746634687713: 1, 0.010684610840781521: 1, 0.010680522029174553: 1, 0.010661338193803466: 1, 0.010659553612694559: 1, 0.010653500450864682: 1, 0.010648489873131809: 1, 0.010645599389342137: 1, 0.010619863187339632: 1, 0.010610198959341895: 1, 0.010603134699132075: 1, 0.01060119050293535: 1, 0.010595581813844769: 1, 0.010580407099034215: 1, 0.01056985609251666: 1, 0.010560549663354646: 1, 0.010555645354177315: 1, 0.010555259170165563: 1, 0.010544941381250872: 1, 0.010544136017560121: 1, 0.010540965385786447: 1, 0.010536562364938626: 1, 0.010534100958068634: 1, 0.010518521192246902: 1, 0.010518481372798155: 1, 0.010507717128993288: 1, 0.010497115056166503: 1, 0.010493236911693057: 1, 0.010480239739302242: 1, 0.010478673496528899: 1, 0.010471277115828355: 1, 0.010469366998380861: 1, 0.010459128371959642: 1, 0.010451855508202983: 1, 0.010435839833861585: 1, 0.010429012090051161: 1, 0.010426032434670066: 1, 0.010424792710444317: 1, 0.010415551332000401: 1, 0.010413067731725746: 1, 0.010410877633099926: 1, 0.010407416607447961: 1, 0.010374279745724881: 1, 0.010373310991010392: 1, 0.010357310542353806: 1, 0.010354636255937274: 1, 0.010338456516744501: 1, 0.010331960191370733: 1, 0.010331413037613289: 1, 0.010321996688564487: 1, 0.010321070764905918: 1, 0.010318995852358414: 1, 0.01031373678053669: 1, 0.010308491471334631: 1, 0.010308341172034009: 1, 0.010292950398754712: 1, 0.010291138471784341: 1, 0.010288333820600834: 1, 0.010270868681543322: 1, 0.010258283866257108: 1, 0.010254411673882536: 1, 0.010241608998766879: 1, 0.010206312886017296: 1, 0.010195059114951359: 1, 0.010194635307404581: 1, 0.010191962025691781: 1, 0.010186141098702112: 1, 0.010159476338504635: 1, 0.010156077310360223: 1, 0.010149971912271528: 1, 0.010142364050513539: 1, 0.010141587885334549: 1, 0.010126981165433105: 1, 0.010116298869275956: 1, 0.010104956763390275: 1, 0.010096732271584486: 1, 0.01009257552320989: 1, 0.010074832054738334: 1, 0.010068658930178793: 1, 0.010059964899437605: 1, 0.010059127076909896: 1, 0.010055510568383139: 1, 0.010054221381534764: 1, 0.010044896943278751: 1, 0.010043284065776543: 1, 0.010041324824664103: 1, 0.010040937517621392: 1, 0.010032650638174606: 1, 0.010032478770549223: 1, 0.010014776958573017: 1, 0.01001122765276841: 1, 0.010006472066876418: 1, 0.010005026670874561: 1, 0.0099957315188205029: 1, 0.0099912023262903604: 1, 0.0099894264447902559: 1, 0.0099841168203522786: 1, 0.0099784846583356387: 1, 0.0099779360113786339: 1, 0.0099727550737286376: 1, 0.0099592759688355223: 1, 0.0099542445417380825: 1, 0.0099457782377698617: 1, 0.0099355548296441235: 1, 0.0099350670532732631: 1, 0.0099309320843675199: 1, 0.0099187958408010393: 1, 0.0099187197255014865: 1, 0.0099147988695004394: 1, 0.009914219929169887: 1, 0.0099006791817355527: 1, 0.0098964833161674058: 1, 0.0098954527615672371: 1, 0.0098875310887866392: 1, 0.0098545921431114521: 1, 0.009834341180418954: 1, 0.0098215989276296822: 1, 0.009817291195367105: 1, 0.0098122686473888256: 1, 0.0098104480139937153: 1, 0.0098086363541143983: 1, 0.0097874967885282493: 1, 0.0097724896352404007: 1, 0.009763103598976048: 1, 0.0097561848770629199: 1, 0.0097535591814013351: 1, 0.0097517938122689621: 1, 0.009749885530589298: 1, 0.0097384073380038776: 1, 0.0097253567186897597: 1, 0.0097214243410606443: 1, 0.0097104533741016671: 1, 0.0097049462510793334: 1, 0.0096948788077262822: 1, 0.0096919461520659882: 1, 0.0096698641238810636: 1, 0.0096666978038710705: 1, 0.0096651897312909942: 1, 0.0096591450794637525: 1, 0.0096501787879361544: 1, 0.0096496033506446796: 1, 0.0096460555846258692: 1, 0.0096391404868879788: 1, 0.0096308455469470197: 1, 0.0096125769095557825: 1, 0.0095970431777888197: 1, 0.009575198773491167: 1, 0.0095654929870765855: 1, 0.0095576021262653854: 1, 0.0095542979863868262: 1, 0.0095440709136343053: 1, 0.009538978117108337: 1, 0.0095378131887827976: 1, 0.0095358011447855655: 1, 0.0095340500934973961: 1, 0.0095265614363510658: 1, 0.0095176456850169424: 1, 0.0095168438681658297: 1, 0.0095001889223795127: 1, 0.0094773725890264834: 1, 0.0094718395528557032: 1, 0.009455027407852909: 1, 0.0094448815408212372: 1, 0.0094364364730458831: 1, 0.009411022859085981: 1, 0.0094082434746651476: 1, 0.0093869911492640221: 1, 0.0093866415663539093: 1, 0.0093859425900941328: 1, 0.0093610131659247336: 1, 0.0093531288977288136: 1, 0.0093462004930333284: 1, 0.0093406297438028713: 1, 0.0093267397129903392: 1, 0.0093119991502511826: 1, 0.0092944412166869571: 1, 0.0092841189824486962: 1, 0.0092793342368340109: 1, 0.0092695472270903027: 1, 0.0092587890307878982: 1, 0.0092520090000801688: 1, 0.0092461213382933772: 1, 0.0092332442314963931: 1, 0.009229150432611884: 1, 0.009216593415574164: 1, 0.0092021801907578877: 1, 0.0091909434858734769: 1, 0.0091888616756194488: 1, 0.0091823181834871405: 1, 0.0091691995789455454: 1, 0.0091632906128889906: 1, 0.0091448348344417615: 1, 0.0091356259251755226: 1, 0.0091250207647992181: 1, 0.0091073029923664124: 1, 0.0090901616116306067: 1, 0.00908487723708685: 1, 0.0090822750740231217: 1, 0.0090636421418030209: 1, 0.0090630792979019062: 1, 0.0090309835654525505: 1, 0.0090263078583721831: 1, 0.0090142780618868885: 1, 0.0090126308142001697: 1, 0.0090119552212366318: 1, 0.0090087389616284354: 1, 0.0090059599263630913: 1, 0.0089974075675906817: 1, 0.0089926051101912961: 1, 0.0089921045838803563: 1, 0.0089865199041660009: 1, 0.00898325791834945: 1, 0.0089751977059448103: 1, 0.0089659151964865246: 1, 0.0089418784466083513: 1, 0.0089389283263714477: 1, 0.0089315734944781407: 1, 0.0089280244617053819: 1, 0.0089127460706171311: 1, 0.0088886337035090513: 1, 0.0088676588679373006: 1, 0.0088360591422694569: 1, 0.0088342039416511153: 1, 0.0088307705082648451: 1, 0.0088277894872811: 1, 0.0088272838867987976: 1, 0.0088174750601173538: 1, 0.0088124851902143114: 1, 0.0087878185371692338: 1, 0.008786093141833002: 1, 0.0087784370053944002: 1, 0.0087510997947244078: 1, 0.0087485254326682502: 1, 0.0086962006451385514: 1, 0.0086871521548619983: 1, 0.0086786732328361042: 1, 0.0086509366496523021: 1, 0.0086106065752847918: 1, 0.0086080422038972912: 1, 0.0086039264991692628: 1, 0.0085839675522669714: 1, 0.0085699447434390529: 1, 0.0085649607911113361: 1, 0.0085375119261142159: 1, 0.0085196994291214575: 1, 0.0085140096854144105: 1, 0.0085005600027122999: 1, 0.0084907304675914362: 1, 0.0084869418810783453: 1, 0.0084801670902691639: 1, 0.0084761015006042401: 1, 0.0084737904742515132: 1, 0.0084659263840198354: 1, 0.0084625077515286043: 1, 0.0084540775619685871: 1, 0.0084476321516749504: 1, 0.0084448937043069862: 1, 0.0084385567502885221: 1, 0.0084134442449390282: 1, 0.0084002626588399847: 1, 0.0083995553084447588: 1, 0.00839624535994642: 1, 0.0083922223240886929: 1, 0.008386252400137564: 1, 0.0083665618151151575: 1, 0.0083060908191204836: 1, 0.0082982529727446703: 1, 0.0082848908466314052: 1, 0.0082778428002259104: 1, 0.0082751488185882627: 1, 0.0082748645118444868: 1, 0.0082711111606472761: 1, 0.0082606184880176618: 1, 0.0082223943490357596: 1, 0.0082083967178304407: 1, 0.0081981869312007273: 1, 0.0081676695581106018: 1, 0.0081377494121512815: 1, 0.0081315923772076037: 1, 0.0081313929859436647: 1, 0.0081117033303488018: 1, 0.0080600348076621513: 1, 0.0080313344120394158: 1, 0.0080297433420730077: 1, 0.0080221992808908217: 1, 0.0080221639856835544: 1, 0.0080087837287921015: 1, 0.0079765367092538633: 1, 0.0079713019301391134: 1, 0.007968724313989874: 1, 0.0079614165314876896: 1, 0.0079575457336904885: 1, 0.0079127417850868107: 1, 0.0079032617595139638: 1, 0.0079011111648401092: 1, 0.0078803920219815832: 1, 0.0078591221587347559: 1, 0.0078474369578484474: 1, 0.0078277206740761766: 1, 0.0078202664606996757: 1, 0.0078165727380326983: 1, 0.0078152402016344255: 1, 0.0077877853373490742: 1, 0.0077755452342693522: 1, 0.0077752602902909727: 1, 0.0077656716306052764: 1, 0.0077594850606897033: 1, 0.0077257032608990424: 1, 0.0076998946214853498: 1, 0.0076754386844349876: 1, 0.007673815214428191: 1, 0.007668490206259343: 1, 0.0076625730547849446: 1, 0.0076598259333946119: 1, 0.0076501940824581765: 1, 0.007635788497031875: 1, 0.0076124565915465688: 1, 0.0075916039096648189: 1, 0.0075689000804682622: 1, 0.0075555327173925145: 1, 0.0075549191967929606: 1, 0.0075285544860073592: 1, 0.0075089666615699305: 1, 0.0074909802628861568: 1, 0.0074752665299362975: 1, 0.0074606676408372147: 1, 0.0074288531099609293: 1, 0.0074207574260467864: 1, 0.0073780374345291796: 1, 0.0073363565097710557: 1, 0.0073302152313630955: 1, 0.0072925179547359727: 1, 0.007254752982013073: 1, 0.0071840886333603797: 1, 0.0071716875962202203: 1, 0.0071600218478661062: 1, 0.007028748117112237: 1, 0.0069597935778425556: 1, 0.0069579987060492867: 1, 0.0068469618915445729: 1, 0.0068108158224680134: 1, 0.0068049242580641711: 1, 0.0067760551102700782: 1, 0.0067466742850361902: 1, 0.0067427079972138607: 1, 0.006716923501638346: 1, 0.0066949432478510054: 1, 0.0066750228296565857: 1, 0.0066588585394160675: 1, 0.0064954585981231031: 1, 0.0064911153265713823: 1, 0.0064567679737989863: 1, 0.0064553158794602265: 1, 0.0063959571752063606: 1, 0.0063697072759622241: 1, 0.0063621676785289016: 1, 0.0063152409264487785: 1, 0.0062958991234208046: 1, 0.0062604508785946127: 1, 0.0062099996102093604: 1, 0.0061910575154764877: 1, 0.006060634061592754: 1, 0.0059708809568126704: 1, 0.0059040415165465222: 1, 0.0057710675122510536: 1, 0.0056692700021167986: 1, 0.0049960186733564423: 1, 0.0049883403996061259: 1, 0.0044614544423055586: 1})
    
    In [245]:
    # Train a Logistic regression+Calibration model using text features whicha re on-hot encoded
    alpha = [10 ** x for x in range(-5, 1)]
    
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    
    cv_log_error_array=[]
    for i in alpha:
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_text_feature_onehotCoding, y_train)
        
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_text_feature_onehotCoding, y_train)
        predict_y = sig_clf.predict_proba(cv_text_feature_onehotCoding)
        cv_log_error_array.append(log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
        print('For values of alpha = ', i, "The log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],np.round(txt,3)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_text_feature_onehotCoding, y_train)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_text_feature_onehotCoding, y_train)
    
    predict_y = sig_clf.predict_proba(train_text_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_text_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_text_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    For values of alpha =  1e-05 The log loss is: 1.2704124625936264
    For values of alpha =  0.0001 The log loss is: 1.209185614605813
    For values of alpha =  0.001 The log loss is: 1.0518444423680169
    For values of alpha =  0.01 The log loss is: 1.106391878843891
    For values of alpha =  0.1 The log loss is: 1.2626012805699605
    For values of alpha =  1 The log loss is: 1.5461491038587245
    
    For values of best alpha =  0.001 The train log loss is: 0.6522870473446675
    For values of best alpha =  0.001 The cross validation log loss is: 1.0518444423680169
    For values of best alpha =  0.001 The test log loss is: 1.1507115914182782
    

    Q. Is the Text feature stable across all the data sets (Test, Train, Cross validation)?

    Ans. Yes, it seems like!

    In [42]:
    def get_intersec_text(df):
        df_text_vec = TfidfVectorizer(min_df=3)
        df_text_fea = df_text_vec.fit_transform(df['TEXT'])
        df_text_features = df_text_vec.get_feature_names()
    
        df_text_fea_counts = df_text_fea.sum(axis=0).A1
        df_text_fea_dict = dict(zip(list(df_text_features),df_text_fea_counts))
        len1 = len(set(df_text_features))
        len2 = len(set(train_text_features) & set(df_text_features))
        return len1,len2
    
    In [247]:
    len1,len2 = get_intersec_text(test_df)
    print(np.round((len2/len1)*100, 3), "% of word of test data appeared in train data")
    len1,len2 = get_intersec_text(cv_df)
    print(np.round((len2/len1)*100, 3), "% of word of Cross Validation appeared in train data")
    
    95.344 % of word of test data appeared in train data
    98.058 % of word of Cross Validation appeared in train data
    

    4. Machine Learning Models

    In [56]:
    #Data preparation for ML models.
    
    #Misc. functionns for ML models
    
    
    def predict_and_plot_confusion_matrix(train_x, train_y,test_x, test_y, clf):
        clf.fit(train_x, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x, train_y)
        pred_y = sig_clf.predict(test_x)
    
        # for calculating log_loss we willl provide the array of probabilities belongs to each class
        print("Log loss :",log_loss(test_y, sig_clf.predict_proba(test_x)))
        # calculating the number of data points that are misclassified
        print("Number of mis-classified points :", np.count_nonzero((pred_y- test_y))/test_y.shape[0])
        plot_confusion_matrix(test_y, pred_y)
    
    In [57]:
    def report_log_loss(train_x, train_y, test_x, test_y,  clf):
        clf.fit(train_x, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x, train_y)
        sig_clf_probs = sig_clf.predict_proba(test_x)
        return log_loss(test_y, sig_clf_probs, eps=1e-15)
    
    In [58]:
    # this function will be used just for naive bayes
    # for the given indices, we will print the name of the features
    # and we will check whether the feature present in the test point text or not
    def get_impfeature_names(indices, text, gene, var, no_features):
        gene_count_vec = TfidfVectorizer()
        var_count_vec = TfidfVectorizer()
        text_count_vec = TfidfVectorizer(min_df=3)
        
        gene_vec = gene_count_vec.fit(train_df['Gene'])
        var_vec  = var_count_vec.fit(train_df['Variation'])
        text_vec = text_count_vec.fit(train_df['TEXT'])
        
        fea1_len = len(gene_vec.get_feature_names())
        fea2_len = len(var_count_vec.get_feature_names())
        
        word_present = 0
        for i,v in enumerate(indices):
            if (v < fea1_len):
                word = gene_vec.get_feature_names()[v]
                yes_no = True if word == gene else False
                if yes_no:
                    word_present += 1
                    print(i, "Gene feature [{}] present in test data point [{}]".format(word,yes_no))
            elif (v < fea1_len+fea2_len):
                word = var_vec.get_feature_names()[v-(fea1_len)]
                yes_no = True if word == var else False
                if yes_no:
                    word_present += 1
                    print(i, "variation feature [{}] present in test data point [{}]".format(word,yes_no))
            else:
                word = text_vec.get_feature_names()[v-(fea1_len+fea2_len)]
                yes_no = True if word in text.split() else False
                if yes_no:
                    word_present += 1
                    print(i, "Text feature [{}] present in test data point [{}]".format(word,yes_no))
    
        print("Out of the top ",no_features," features ", word_present, "are present in query point")
    

    Stacking the three types of features

    In [125]:
    # merging gene, variance and text features
    
    # building train, test and cross validation data sets
    # a = [[1, 2], 
    #      [3, 4]]
    # b = [[4, 5], 
    #      [6, 7]]
    # hstack(a, b) = [[1, 2, 4, 5],
    #                [ 3, 4, 6, 7]]
    
    train_gene_var_onehotCoding = hstack((train_gene_feature_onehotCoding,train_variation_feature_onehotCoding))
    test_gene_var_onehotCoding = hstack((test_gene_feature_onehotCoding,test_variation_feature_onehotCoding))
    cv_gene_var_onehotCoding = hstack((cv_gene_feature_onehotCoding,cv_variation_feature_onehotCoding))
    
    train_x_onehotCoding = hstack((train_gene_var_onehotCoding, train_text_feature_onehotCoding)).tocsr()
    train_y = np.array(list(train_df['Class']))
    
    test_x_onehotCoding = hstack((test_gene_var_onehotCoding, test_text_feature_onehotCoding)).tocsr()
    test_y = np.array(list(test_df['Class']))
    
    cv_x_onehotCoding = hstack((cv_gene_var_onehotCoding, cv_text_feature_onehotCoding)).tocsr()
    cv_y = np.array(list(cv_df['Class']))
    
    
    train_gene_var_responseCoding = np.hstack((train_gene_feature_responseCoding,train_variation_feature_responseCoding))
    test_gene_var_responseCoding = np.hstack((test_gene_feature_responseCoding,test_variation_feature_responseCoding))
    cv_gene_var_responseCoding = np.hstack((cv_gene_feature_responseCoding,cv_variation_feature_responseCoding))
    
    train_x_responseCoding = np.hstack((train_gene_var_responseCoding, train_text_feature_responseCoding))
    test_x_responseCoding = np.hstack((test_gene_var_responseCoding, test_text_feature_responseCoding))
    cv_x_responseCoding = np.hstack((cv_gene_var_responseCoding, cv_text_feature_responseCoding))
    
    In [126]:
    print("One hot encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_onehotCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_onehotCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_onehotCoding.shape)
    
    One hot encoding features :
    (number of data points * number of features) in train data =  (1359, 2469)
    (number of data points * number of features) in test data =  (425, 2469)
    (number of data points * number of features) in cross validation data = (340, 2469)
    
    In [127]:
    print(" Response encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_responseCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_responseCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_responseCoding.shape)
    
     Response encoding features :
    (number of data points * number of features) in train data =  (1359, 27)
    (number of data points * number of features) in test data =  (425, 27)
    (number of data points * number of features) in cross validation data = (340, 27)
    

    4.1. Base Line Model

    4.1.1. Naive Bayes

    4.1.1.1. Hyper parameter tuning

    In [254]:
    # find more about Multinomial Naive base function here http://scikit-learn.org/stable/modules/generated/sklearn.naive_bayes.MultinomialNB.html
    # -------------------------
    # default paramters
    # sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
    
    # some of methods of MultinomialNB()
    # fit(X, y[, sample_weight])	Fit Naive Bayes classifier according to X, y
    # predict(X)	Perform classification on an array of test vectors X.
    # predict_log_proba(X)	Return log-probability estimates for the test vector X.
    # -----------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    # ----------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    alpha = [0.00001, 0.0001, 0.001, 0.1, 1, 10, 100,1000]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = MultinomialNB(alpha=i)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(np.log10(alpha), cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (np.log10(alpha[i]),cv_log_error_array[i]))
    plt.grid()
    plt.xticks(np.log10(alpha))
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = MultinomialNB(alpha=alpha[best_alpha])
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 1e-05
    Log Loss : 1.204762791000572
    for alpha = 0.0001
    Log Loss : 1.2152190183343217
    for alpha = 0.001
    Log Loss : 1.2175133688140967
    for alpha = 0.1
    Log Loss : 1.2190258476975688
    for alpha = 1
    Log Loss : 1.217395717034539
    for alpha = 10
    Log Loss : 1.2920940527552667
    for alpha = 100
    Log Loss : 1.1815186644500686
    for alpha = 1000
    Log Loss : 1.1284635720784413
    
    For values of best alpha =  1000 The train log loss is: 0.9196816371783487
    For values of best alpha =  1000 The cross validation log loss is: 1.1284635720784413
    For values of best alpha =  1000 The test log loss is: 1.1807045818657997
    

    4.1.1.2. Testing the model with best hyper paramters

    In [255]:
    # find more about Multinomial Naive base function here http://scikit-learn.org/stable/modules/generated/sklearn.naive_bayes.MultinomialNB.html
    # -------------------------
    # default paramters
    # sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
    
    # some of methods of MultinomialNB()
    # fit(X, y[, sample_weight])	Fit Naive Bayes classifier according to X, y
    # predict(X)	Perform classification on an array of test vectors X.
    # predict_log_proba(X)	Return log-probability estimates for the test vector X.
    # -----------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    # ----------------------------
    
    clf = MultinomialNB(alpha=alpha[best_alpha])
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
    # to avoid rounding error while multiplying probabilites we use log-probability estimates
    print("Log Loss :",log_loss(cv_y, sig_clf_probs))
    print("Number of missclassified point :", np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])
    plot_confusion_matrix(cv_y, sig_clf.predict(cv_x_onehotCoding.toarray()))
    
    Log Loss : 1.1284635720784413
    Number of missclassified point : 0.39473684210526316
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.1.1.3. Feature Importance, Correctly classified point

    In [261]:
    test_point_index = 1
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 1
    Predicted Class Probabilities: [[0.6597 0.0136 0.0054 0.041  0.0778 0.1834 0.0158 0.0021 0.0012]]
    Actual Class : 6
    --------------------------------------------------
    11 Text feature [protein] present in test data point [True]
    12 Text feature [one] present in test data point [True]
    13 Text feature [type] present in test data point [True]
    16 Text feature [involved] present in test data point [True]
    17 Text feature [two] present in test data point [True]
    18 Text feature [functions] present in test data point [True]
    19 Text feature [region] present in test data point [True]
    20 Text feature [function] present in test data point [True]
    21 Text feature [results] present in test data point [True]
    22 Text feature [role] present in test data point [True]
    23 Text feature [dna] present in test data point [True]
    25 Text feature [wild] present in test data point [True]
    26 Text feature [binding] present in test data point [True]
    27 Text feature [also] present in test data point [True]
    28 Text feature [loss] present in test data point [True]
    29 Text feature [table] present in test data point [True]
    30 Text feature [gene] present in test data point [True]
    31 Text feature [possible] present in test data point [True]
    32 Text feature [either] present in test data point [True]
    33 Text feature [affect] present in test data point [True]
    34 Text feature [expression] present in test data point [True]
    35 Text feature [containing] present in test data point [True]
    37 Text feature [indicate] present in test data point [True]
    38 Text feature [human] present in test data point [True]
    40 Text feature [determined] present in test data point [True]
    41 Text feature [three] present in test data point [True]
    42 Text feature [using] present in test data point [True]
    44 Text feature [however] present in test data point [True]
    45 Text feature [specific] present in test data point [True]
    46 Text feature [including] present in test data point [True]
    47 Text feature [genes] present in test data point [True]
    49 Text feature [four] present in test data point [True]
    50 Text feature [may] present in test data point [True]
    51 Text feature [domains] present in test data point [True]
    52 Text feature [cancer] present in test data point [True]
    54 Text feature [suggest] present in test data point [True]
    56 Text feature [effect] present in test data point [True]
    57 Text feature [analysis] present in test data point [True]
    58 Text feature [transcriptional] present in test data point [True]
    60 Text feature [well] present in test data point [True]
    61 Text feature [important] present in test data point [True]
    62 Text feature [several] present in test data point [True]
    63 Text feature [similar] present in test data point [True]
    64 Text feature [multiple] present in test data point [True]
    65 Text feature [shown] present in test data point [True]
    66 Text feature [many] present in test data point [True]
    67 Text feature [observed] present in test data point [True]
    68 Text feature [sequences] present in test data point [True]
    69 Text feature [form] present in test data point [True]
    70 Text feature [amino] present in test data point [True]
    71 Text feature [conserved] present in test data point [True]
    72 Text feature [indicating] present in test data point [True]
    73 Text feature [mediated] present in test data point [True]
    76 Text feature [highly] present in test data point [True]
    77 Text feature [previous] present in test data point [True]
    78 Text feature [identify] present in test data point [True]
    79 Text feature [thus] present in test data point [True]
    80 Text feature [contains] present in test data point [True]
    81 Text feature [previously] present in test data point [True]
    82 Text feature [critical] present in test data point [True]
    83 Text feature [interacts] present in test data point [True]
    84 Text feature [structure] present in test data point [True]
    85 Text feature [essential] present in test data point [True]
    86 Text feature [described] present in test data point [True]
    87 Text feature [whether] present in test data point [True]
    88 Text feature [terminal] present in test data point [True]
    89 Text feature [addition] present in test data point [True]
    90 Text feature [likely] present in test data point [True]
    91 Text feature [corresponding] present in test data point [True]
    92 Text feature [following] present in test data point [True]
    93 Text feature [proteins] present in test data point [True]
    94 Text feature [ability] present in test data point [True]
    95 Text feature [based] present in test data point [True]
    96 Text feature [complex] present in test data point [True]
    97 Text feature [directly] present in test data point [True]
    98 Text feature [remaining] present in test data point [True]
    Out of the top  100  features  76 are present in query point
    

    4.1.1.4. Feature Importance, Incorrectly classified point

    In [262]:
    test_point_index = 100
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[2.180e-02 3.620e-02 2.000e-04 4.250e-02 1.080e-02 8.200e-03 8.798e-01
      5.000e-04 0.000e+00]]
    Actual Class : 5
    --------------------------------------------------
    16 Text feature [cells] present in test data point [True]
    17 Text feature [kinase] present in test data point [True]
    19 Text feature [activated] present in test data point [True]
    20 Text feature [activation] present in test data point [True]
    21 Text feature [cell] present in test data point [True]
    22 Text feature [presence] present in test data point [True]
    23 Text feature [contrast] present in test data point [True]
    24 Text feature [phosphorylation] present in test data point [True]
    25 Text feature [downstream] present in test data point [True]
    26 Text feature [expressing] present in test data point [True]
    27 Text feature [shown] present in test data point [True]
    28 Text feature [factor] present in test data point [True]
    29 Text feature [inhibitor] present in test data point [True]
    30 Text feature [also] present in test data point [True]
    31 Text feature [signaling] present in test data point [True]
    33 Text feature [however] present in test data point [True]
    34 Text feature [growth] present in test data point [True]
    35 Text feature [addition] present in test data point [True]
    36 Text feature [10] present in test data point [True]
    37 Text feature [suggest] present in test data point [True]
    38 Text feature [compared] present in test data point [True]
    39 Text feature [recently] present in test data point [True]
    40 Text feature [treated] present in test data point [True]
    41 Text feature [similar] present in test data point [True]
    42 Text feature [independent] present in test data point [True]
    43 Text feature [previously] present in test data point [True]
    44 Text feature [increased] present in test data point [True]
    45 Text feature [tyrosine] present in test data point [True]
    46 Text feature [found] present in test data point [True]
    47 Text feature [1a] present in test data point [True]
    48 Text feature [well] present in test data point [True]
    49 Text feature [potential] present in test data point [True]
    50 Text feature [showed] present in test data point [True]
    51 Text feature [treatment] present in test data point [True]
    52 Text feature [mutant] present in test data point [True]
    53 Text feature [using] present in test data point [True]
    56 Text feature [fig] present in test data point [True]
    57 Text feature [higher] present in test data point [True]
    58 Text feature [figure] present in test data point [True]
    59 Text feature [described] present in test data point [True]
    60 Text feature [mutations] present in test data point [True]
    63 Text feature [obtained] present in test data point [True]
    64 Text feature [3b] present in test data point [True]
    65 Text feature [constitutive] present in test data point [True]
    66 Text feature [sensitive] present in test data point [True]
    67 Text feature [consistent] present in test data point [True]
    68 Text feature [total] present in test data point [True]
    69 Text feature [interestingly] present in test data point [True]
    70 Text feature [mechanism] present in test data point [True]
    71 Text feature [pathways] present in test data point [True]
    72 Text feature [including] present in test data point [True]
    74 Text feature [expression] present in test data point [True]
    75 Text feature [reported] present in test data point [True]
    76 Text feature [absence] present in test data point [True]
    77 Text feature [activating] present in test data point [True]
    78 Text feature [expressed] present in test data point [True]
    79 Text feature [observed] present in test data point [True]
    80 Text feature [inhibition] present in test data point [True]
    81 Text feature [proliferation] present in test data point [True]
    84 Text feature [followed] present in test data point [True]
    87 Text feature [respectively] present in test data point [True]
    88 Text feature [may] present in test data point [True]
    89 Text feature [approximately] present in test data point [True]
    90 Text feature [without] present in test data point [True]
    91 Text feature [mutation] present in test data point [True]
    92 Text feature [3a] present in test data point [True]
    93 Text feature [identified] present in test data point [True]
    94 Text feature [performed] present in test data point [True]
    95 Text feature [antibody] present in test data point [True]
    96 Text feature [increase] present in test data point [True]
    97 Text feature [4a] present in test data point [True]
    98 Text feature [two] present in test data point [True]
    99 Text feature [inhibitors] present in test data point [True]
    Out of the top  100  features  73 are present in query point
    

    4.2. K Nearest Neighbour Classification

    4.2.1. Hyper parameter tuning

    In [263]:
    # find more about KNeighborsClassifier() here http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html
    # -------------------------
    # default parameter
    # KNeighborsClassifier(n_neighbors=5, weights=’uniform’, algorithm=’auto’, leaf_size=30, p=2, 
    # metric=’minkowski’, metric_params=None, n_jobs=1, **kwargs)
    
    # methods of
    # fit(X, y) : Fit the model using X as training data and y as target values
    # predict(X):Predict the class labels for the provided data
    # predict_proba(X):Return probability estimates for the test data X.
    #-------------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/k-nearest-neighbors-geometric-intuition-with-a-toy-example-1/
    #-------------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    
    alpha = [5, 11, 15, 21, 31, 41, 51, 99]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = KNeighborsClassifier(n_neighbors=i)
        clf.fit(train_x_responseCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_responseCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_responseCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_responseCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_responseCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_responseCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 5
    Log Loss : 1.0623805615343493
    for alpha = 11
    Log Loss : 1.0444452750986575
    for alpha = 15
    Log Loss : 1.0667705679076356
    for alpha = 21
    Log Loss : 1.0485047777307632
    for alpha = 31
    Log Loss : 1.0587909760517968
    for alpha = 41
    Log Loss : 1.0611629992233091
    for alpha = 51
    Log Loss : 1.0630889689067622
    for alpha = 99
    Log Loss : 1.071484468392315
    
    For values of best alpha =  11 The train log loss is: 0.6312205358693138
    For values of best alpha =  11 The cross validation log loss is: 1.0444452750986575
    For values of best alpha =  11 The test log loss is: 1.0135835455369469
    

    4.2.2. Testing the model with best hyper paramters

    In [264]:
    # find more about KNeighborsClassifier() here http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html
    # -------------------------
    # default parameter
    # KNeighborsClassifier(n_neighbors=5, weights=’uniform’, algorithm=’auto’, leaf_size=30, p=2, 
    # metric=’minkowski’, metric_params=None, n_jobs=1, **kwargs)
    
    # methods of
    # fit(X, y) : Fit the model using X as training data and y as target values
    # predict(X):Predict the class labels for the provided data
    # predict_proba(X):Return probability estimates for the test data X.
    #-------------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/k-nearest-neighbors-geometric-intuition-with-a-toy-example-1/
    #-------------------------------------
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    predict_and_plot_confusion_matrix(train_x_responseCoding, train_y, cv_x_responseCoding, cv_y, clf)
    
    Log loss : 1.0444452750986575
    Number of mis-classified points : 0.3533834586466165
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.2.3.Sample Query point -1

    In [265]:
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    test_point_index = 1
    predicted_cls = sig_clf.predict(test_x_responseCoding[0].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Actual Class :", test_y[test_point_index])
    neighbors = clf.kneighbors(test_x_responseCoding[test_point_index].reshape(1, -1), alpha[best_alpha])
    print("The ",alpha[best_alpha]," nearest neighbours of the test points belongs to classes",train_y[neighbors[1][0]])
    print("Fequency of nearest points :",Counter(train_y[neighbors[1][0]]))
    
    Predicted Class : 7
    Actual Class : 6
    The  11  nearest neighbours of the test points belongs to classes [1 6 6 5 1 1 1 5 1 1 1]
    Fequency of nearest points : Counter({1: 7, 6: 2, 5: 2})
    

    4.2.4. Sample Query Point-2

    In [266]:
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    test_point_index = 100
    
    predicted_cls = sig_clf.predict(test_x_responseCoding[test_point_index].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Actual Class :", test_y[test_point_index])
    neighbors = clf.kneighbors(test_x_responseCoding[test_point_index].reshape(1, -1), alpha[best_alpha])
    print("the k value for knn is",alpha[best_alpha],"and the nearest neighbours of the test points belongs to classes",train_y[neighbors[1][0]])
    print("Fequency of nearest points :",Counter(train_y[neighbors[1][0]]))
    
    Predicted Class : 7
    Actual Class : 5
    the k value for knn is 11 and the nearest neighbours of the test points belongs to classes [5 7 7 2 2 2 7 4 7 2 4]
    Fequency of nearest points : Counter({7: 4, 2: 4, 4: 2, 5: 1})
    

    4.3. Logistic Regression

    4.3.1. With Class balancing

    4.3.1.1. Hyper paramter tuning

    In [267]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(class_weight='balanced', alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 1e-06
    Log Loss : 1.2964381673283487
    for alpha = 1e-05
    Log Loss : 1.2580827417830178
    for alpha = 0.0001
    Log Loss : 1.1944641981873505
    for alpha = 0.001
    Log Loss : 1.0084458008357113
    for alpha = 0.01
    Log Loss : 1.0812313477527364
    for alpha = 0.1
    Log Loss : 1.17305635240371
    for alpha = 1
    Log Loss : 1.4110040710608245
    for alpha = 10
    Log Loss : 1.4604673889437099
    for alpha = 100
    Log Loss : 1.4660677316058104
    
    For values of best alpha =  0.001 The train log loss is: 0.5727270348156766
    For values of best alpha =  0.001 The cross validation log loss is: 1.0084458008357113
    For values of best alpha =  0.001 The test log loss is: 1.0846850852090135
    

    4.3.1.2. Testing the model with best hyper paramters

    In [268]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    Log loss : 1.0084458008357113
    Number of mis-classified points : 0.34774436090225563
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.3.1.3. Feature Importance

    In [53]:
    def get_imp_feature_names(text, indices, removed_ind = []):
        word_present = 0
        tabulte_list = []
        incresingorder_ind = 0
        for i in indices:
            if i < train_gene_feature_onehotCoding.shape[1]:
                tabulte_list.append([incresingorder_ind, "Gene", "Yes"])
            elif i< 18:
                tabulte_list.append([incresingorder_ind,"Variation", "Yes"])
            if ((i > 17) & (i not in removed_ind)) :
                word = train_text_features[i]
                yes_no = True if word in text.split() else False
                if yes_no:
                    word_present += 1
                tabulte_list.append([incresingorder_ind,train_text_features[i], yes_no])
            incresingorder_ind += 1
        print(word_present, "most importent features are present in our query point")
        print("-"*50)
        print("The features that are most importent of the ",predicted_cls[0]," class:")
        print (tabulate(tabulte_list, headers=["Index",'Feature name', 'Present or Not']))
    
    4.3.1.3.1. Correctly Classified point
    In [270]:
    # from tabulate import tabulate
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 6
    Predicted Class Probabilities: [[0.2929 0.0048 0.0043 0.0025 0.2399 0.4432 0.0018 0.0056 0.0051]]
    Actual Class : 6
    --------------------------------------------------
    250 Text feature [quartz] present in test data point [True]
    441 Text feature [traces] present in test data point [True]
    462 Text feature [weakened] present in test data point [True]
    Out of the top  500  features  3 are present in query point
    
    4.3.1.3.2. Incorrectly Classified point
    In [271]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[0.0057 0.2027 0.0029 0.0074 0.354  0.0029 0.409  0.0086 0.0067]]
    Actual Class : 5
    --------------------------------------------------
    21 Text feature [activated] present in test data point [True]
    27 Text feature [constitutive] present in test data point [True]
    41 Text feature [3t3] present in test data point [True]
    44 Text feature [interventions] present in test data point [True]
    67 Text feature [technology] present in test data point [True]
    99 Text feature [nude] present in test data point [True]
    108 Text feature [activation] present in test data point [True]
    118 Text feature [oncogenes] present in test data point [True]
    137 Text feature [activate] present in test data point [True]
    141 Text feature [oncogene] present in test data point [True]
    205 Text feature [transforming] present in test data point [True]
    206 Text feature [phosphorylation] present in test data point [True]
    208 Text feature [transformation] present in test data point [True]
    227 Text feature [agar] present in test data point [True]
    259 Text feature [erk] present in test data point [True]
    269 Text feature [murine] present in test data point [True]
    273 Text feature [expressing] present in test data point [True]
    348 Text feature [guanine] present in test data point [True]
    379 Text feature [abd] present in test data point [True]
    394 Text feature [lay] present in test data point [True]
    410 Text feature [downstream] present in test data point [True]
    425 Text feature [activating] present in test data point [True]
    457 Text feature [definitively] present in test data point [True]
    458 Text feature [transform] present in test data point [True]
    470 Text feature [akt3] present in test data point [True]
    Out of the top  500  features  25 are present in query point
    

    4.3.2. Without Class balancing

    4.3.2.1. Hyper paramter tuning

    In [272]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 1)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 1e-06
    Log Loss : 1.2176384198207126
    for alpha = 1e-05
    Log Loss : 1.225526999973934
    for alpha = 0.0001
    Log Loss : 1.1871724676919033
    for alpha = 0.001
    Log Loss : 1.010082176546666
    for alpha = 0.01
    Log Loss : 1.0590243743653187
    for alpha = 0.1
    Log Loss : 1.1918003360203913
    for alpha = 1
    Log Loss : 1.4700114623430167
    
    For values of best alpha =  0.001 The train log loss is: 0.5572454189207187
    For values of best alpha =  0.001 The cross validation log loss is: 1.010082176546666
    For values of best alpha =  0.001 The test log loss is: 1.1028651252976287
    

    4.3.2.2. Testing model with best hyper parameters

    In [273]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    Log loss : 1.010082176546666
    Number of mis-classified points : 0.34398496240601506
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.3.2.3. Feature Importance, Correctly Classified point

    In [274]:
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 6
    Predicted Class Probabilities: [[0.329  0.0057 0.0011 0.0044 0.2125 0.4412 0.0051 0.0005 0.0005]]
    Actual Class : 6
    --------------------------------------------------
    291 Text feature [quartz] present in test data point [True]
    400 Text feature [traces] present in test data point [True]
    450 Text feature [weakened] present in test data point [True]
    Out of the top  500  features  3 are present in query point
    

    4.3.2.4. Feature Importance, Inorrectly Classified point

    In [275]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[6.900e-03 2.054e-01 4.000e-04 1.100e-02 2.232e-01 1.800e-03 5.512e-01
      1.000e-04 2.000e-04]]
    Actual Class : 5
    --------------------------------------------------
    54 Text feature [activated] present in test data point [True]
    79 Text feature [3t3] present in test data point [True]
    86 Text feature [constitutive] present in test data point [True]
    98 Text feature [interventions] present in test data point [True]
    160 Text feature [activation] present in test data point [True]
    161 Text feature [transformation] present in test data point [True]
    164 Text feature [phosphorylation] present in test data point [True]
    166 Text feature [activate] present in test data point [True]
    181 Text feature [expressing] present in test data point [True]
    183 Text feature [agar] present in test data point [True]
    185 Text feature [nude] present in test data point [True]
    187 Text feature [technology] present in test data point [True]
    198 Text feature [transforming] present in test data point [True]
    208 Text feature [abd] present in test data point [True]
    210 Text feature [oncogenes] present in test data point [True]
    219 Text feature [oncogene] present in test data point [True]
    258 Text feature [activating] present in test data point [True]
    308 Text feature [definitively] present in test data point [True]
    327 Text feature [2d] present in test data point [True]
    334 Text feature [downstream] present in test data point [True]
    353 Text feature [erk] present in test data point [True]
    380 Text feature [transform] present in test data point [True]
    392 Text feature [phospho] present in test data point [True]
    397 Text feature [signaling] present in test data point [True]
    411 Text feature [murine] present in test data point [True]
    432 Text feature [ba] present in test data point [True]
    448 Text feature [f3] present in test data point [True]
    459 Text feature [adenocarcinoma] present in test data point [True]
    463 Text feature [akt3] present in test data point [True]
    490 Text feature [independently] present in test data point [True]
    498 Text feature [transformed] present in test data point [True]
    Out of the top  500  features  31 are present in query point
    

    4.4. Linear Support Vector Machines

    4.4.1. Hyper paramter tuning

    In [276]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-5, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for C =", i)
    #     clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
        clf = SGDClassifier( class_weight='balanced', alpha=i, penalty='l2', loss='hinge', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    # clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for C = 1e-05
    Log Loss : 1.312448071918245
    for C = 0.0001
    Log Loss : 1.2607466879772955
    for C = 0.001
    Log Loss : 1.1744907878804276
    for C = 0.01
    Log Loss : 1.098443262552807
    for C = 0.1
    Log Loss : 1.1969904932915472
    for C = 1
    Log Loss : 1.4669986302138944
    for C = 10
    Log Loss : 1.46709293532397
    for C = 100
    Log Loss : 1.4670929616388797
    
    For values of best alpha =  0.01 The train log loss is: 0.6871337792590879
    For values of best alpha =  0.01 The cross validation log loss is: 1.098443262552807
    For values of best alpha =  0.01 The test log loss is: 1.1834357651739926
    

    4.4.2. Testing model with best hyper parameters

    In [277]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    # clf = SVC(C=alpha[best_alpha],kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42,class_weight='balanced')
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y,cv_x_onehotCoding,cv_y, clf)
    
    Log loss : 1.098443262552807
    Number of mis-classified points : 0.35902255639097747
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.3.3. Feature Importance

    4.3.3.1. For Correctly classified point

    In [278]:
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    # test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 6
    Predicted Class Probabilities: [[0.2554 0.0413 0.0204 0.0336 0.1244 0.4091 0.0815 0.0179 0.0164]]
    Actual Class : 6
    --------------------------------------------------
    222 Text feature [traces] present in test data point [True]
    367 Text feature [models] present in test data point [True]
    Out of the top  500  features  2 are present in query point
    

    4.3.3.2. For Incorrectly classified point

    In [279]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[0.0264 0.0916 0.0081 0.0662 0.2687 0.0252 0.49   0.0127 0.0111]]
    Actual Class : 5
    --------------------------------------------------
    20 Text feature [constitutive] present in test data point [True]
    21 Text feature [activated] present in test data point [True]
    32 Text feature [3t3] present in test data point [True]
    39 Text feature [activation] present in test data point [True]
    43 Text feature [transformation] present in test data point [True]
    44 Text feature [interventions] present in test data point [True]
    47 Text feature [technology] present in test data point [True]
    54 Text feature [expressing] present in test data point [True]
    56 Text feature [activate] present in test data point [True]
    60 Text feature [nude] present in test data point [True]
    81 Text feature [phosphorylation] present in test data point [True]
    86 Text feature [oncogenes] present in test data point [True]
    89 Text feature [oncogene] present in test data point [True]
    97 Text feature [murine] present in test data point [True]
    104 Text feature [agar] present in test data point [True]
    105 Text feature [transforming] present in test data point [True]
    132 Text feature [akt3] present in test data point [True]
    138 Text feature [dimers] present in test data point [True]
    142 Text feature [transform] present in test data point [True]
    149 Text feature [1222] present in test data point [True]
    151 Text feature [f3] present in test data point [True]
    152 Text feature [ba] present in test data point [True]
    156 Text feature [il] present in test data point [True]
    199 Text feature [erk] present in test data point [True]
    207 Text feature [signaling] present in test data point [True]
    221 Text feature [independently] present in test data point [True]
    228 Text feature [transformed] present in test data point [True]
    230 Text feature [activating] present in test data point [True]
    239 Text feature [phospho] present in test data point [True]
    320 Text feature [epitope] present in test data point [True]
    330 Text feature [abd] present in test data point [True]
    368 Text feature [cysteine] present in test data point [True]
    372 Text feature [2d] present in test data point [True]
    374 Text feature [washout] present in test data point [True]
    391 Text feature [downstream] present in test data point [True]
    399 Text feature [1221] present in test data point [True]
    431 Text feature [course] present in test data point [True]
    440 Text feature [3a] present in test data point [True]
    447 Text feature [absence] present in test data point [True]
    453 Text feature [tyrosine] present in test data point [True]
    456 Text feature [afatinib] present in test data point [True]
    483 Text feature [kinase] present in test data point [True]
    Out of the top  500  features  42 are present in query point
    

    4.5 Random Forest Classifier

    4.5.1. Hyper paramter tuning

    In [280]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [100,200,500,1000,2000]
    max_depth = [5, 10]
    cv_log_error_array = []
    for i in alpha:
        for j in max_depth:
            print("for n_estimators =", i,"and max depth = ", j)
            clf = RandomForestClassifier(n_estimators=i, criterion='gini', max_depth=j, random_state=42, n_jobs=-1)
            clf.fit(train_x_onehotCoding, train_y)
            sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
            sig_clf.fit(train_x_onehotCoding, train_y)
            sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
            cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
            print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    '''fig, ax = plt.subplots()
    features = np.dot(np.array(alpha)[:,None],np.array(max_depth)[None]).ravel()
    ax.plot(features, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[int(i/2)],max_depth[int(i%2)],str(txt)), (features[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    '''
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/2)], criterion='gini', max_depth=max_depth[int(best_alpha%2)], random_state=42, n_jobs=-1)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best estimator = ', alpha[int(best_alpha/2)], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best estimator = ', alpha[int(best_alpha/2)], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best estimator = ', alpha[int(best_alpha/2)], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for n_estimators = 100 and max depth =  5
    Log Loss : 1.1940656686312001
    for n_estimators = 100 and max depth =  10
    Log Loss : 1.135820863791144
    for n_estimators = 200 and max depth =  5
    Log Loss : 1.178869720918387
    for n_estimators = 200 and max depth =  10
    Log Loss : 1.1265677229312059
    for n_estimators = 500 and max depth =  5
    Log Loss : 1.1732905768825026
    for n_estimators = 500 and max depth =  10
    Log Loss : 1.125541772599846
    for n_estimators = 1000 and max depth =  5
    Log Loss : 1.170457970772764
    for n_estimators = 1000 and max depth =  10
    Log Loss : 1.125216195951569
    for n_estimators = 2000 and max depth =  5
    Log Loss : 1.1706984784716132
    for n_estimators = 2000 and max depth =  10
    Log Loss : 1.1261352079980538
    For values of best estimator =  1000 The train log loss is: 0.6385057138395482
    For values of best estimator =  1000 The cross validation log loss is: 1.125216195951569
    For values of best estimator =  1000 The test log loss is: 1.1291204643828718
    

    4.5.2. Testing model with best hyper parameters (One Hot Encoding)

    In [281]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/2)], criterion='gini', max_depth=max_depth[int(best_alpha%2)], random_state=42, n_jobs=-1)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y,cv_x_onehotCoding,cv_y, clf)
    
    Log loss : 1.125216195951569
    Number of mis-classified points : 0.39097744360902253
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.5.3. Feature Importance

    4.5.3.1. Correctly Classified point

    In [282]:
    # test_point_index = 10
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/2)], criterion='gini', max_depth=max_depth[int(best_alpha%2)], random_state=42, n_jobs=-1)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    test_point_index = 1
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    get_impfeature_names(indices[:no_feature], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 1
    Predicted Class Probabilities: [[0.3862 0.0621 0.0222 0.1707 0.0856 0.1779 0.0802 0.0054 0.0099]]
    Actual Class : 6
    --------------------------------------------------
    0 Text feature [kinase] present in test data point [True]
    1 Text feature [suppressor] present in test data point [True]
    2 Text feature [tyrosine] present in test data point [True]
    4 Text feature [activation] present in test data point [True]
    5 Text feature [inhibitors] present in test data point [True]
    6 Text feature [activated] present in test data point [True]
    7 Text feature [loss] present in test data point [True]
    9 Text feature [phosphorylation] present in test data point [True]
    13 Text feature [function] present in test data point [True]
    14 Text feature [treatment] present in test data point [True]
    17 Text feature [receptor] present in test data point [True]
    18 Text feature [missense] present in test data point [True]
    19 Text feature [signaling] present in test data point [True]
    23 Text feature [kinases] present in test data point [True]
    27 Text feature [inhibited] present in test data point [True]
    28 Text feature [stability] present in test data point [True]
    30 Text feature [phospho] present in test data point [True]
    31 Text feature [inhibition] present in test data point [True]
    32 Text feature [activate] present in test data point [True]
    33 Text feature [downstream] present in test data point [True]
    34 Text feature [protein] present in test data point [True]
    39 Text feature [cells] present in test data point [True]
    54 Text feature [functional] present in test data point [True]
    58 Text feature [phosphorylated] present in test data point [True]
    64 Text feature [functions] present in test data point [True]
    67 Text feature [response] present in test data point [True]
    68 Text feature [cell] present in test data point [True]
    73 Text feature [potential] present in test data point [True]
    75 Text feature [predicted] present in test data point [True]
    82 Text feature [proliferation] present in test data point [True]
    88 Text feature [pathway] present in test data point [True]
    91 Text feature [lines] present in test data point [True]
    94 Text feature [lung] present in test data point [True]
    Out of the top  100  features  33 are present in query point
    

    4.5.3.2. Inorrectly Classified point

    In [283]:
    test_point_index = 100
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actuall Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    get_impfeature_names(indices[:no_feature], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[0.0505 0.2897 0.0221 0.0458 0.1556 0.048  0.3764 0.0058 0.0061]]
    Actuall Class : 5
    --------------------------------------------------
    0 Text feature [kinase] present in test data point [True]
    1 Text feature [suppressor] present in test data point [True]
    2 Text feature [tyrosine] present in test data point [True]
    3 Text feature [activating] present in test data point [True]
    4 Text feature [activation] present in test data point [True]
    5 Text feature [inhibitors] present in test data point [True]
    6 Text feature [activated] present in test data point [True]
    7 Text feature [loss] present in test data point [True]
    8 Text feature [inhibitor] present in test data point [True]
    9 Text feature [phosphorylation] present in test data point [True]
    10 Text feature [oncogenic] present in test data point [True]
    11 Text feature [growth] present in test data point [True]
    12 Text feature [constitutive] present in test data point [True]
    13 Text feature [function] present in test data point [True]
    14 Text feature [treatment] present in test data point [True]
    15 Text feature [nonsense] present in test data point [True]
    16 Text feature [erk] present in test data point [True]
    17 Text feature [receptor] present in test data point [True]
    18 Text feature [missense] present in test data point [True]
    19 Text feature [signaling] present in test data point [True]
    20 Text feature [therapeutic] present in test data point [True]
    22 Text feature [drug] present in test data point [True]
    23 Text feature [kinases] present in test data point [True]
    24 Text feature [f3] present in test data point [True]
    25 Text feature [frameshift] present in test data point [True]
    26 Text feature [transforming] present in test data point [True]
    27 Text feature [inhibited] present in test data point [True]
    29 Text feature [akt] present in test data point [True]
    30 Text feature [phospho] present in test data point [True]
    31 Text feature [inhibition] present in test data point [True]
    32 Text feature [activate] present in test data point [True]
    33 Text feature [downstream] present in test data point [True]
    34 Text feature [protein] present in test data point [True]
    35 Text feature [autophosphorylation] present in test data point [True]
    36 Text feature [resistance] present in test data point [True]
    37 Text feature [clinical] present in test data point [True]
    38 Text feature [patients] present in test data point [True]
    39 Text feature [cells] present in test data point [True]
    40 Text feature [months] present in test data point [True]
    41 Text feature [therapy] present in test data point [True]
    44 Text feature [expressing] present in test data point [True]
    48 Text feature [ba] present in test data point [True]
    49 Text feature [defective] present in test data point [True]
    50 Text feature [3t3] present in test data point [True]
    51 Text feature [oncogene] present in test data point [True]
    54 Text feature [functional] present in test data point [True]
    58 Text feature [phosphorylated] present in test data point [True]
    59 Text feature [treated] present in test data point [True]
    60 Text feature [extracellular] present in test data point [True]
    61 Text feature [mek] present in test data point [True]
    62 Text feature [repair] present in test data point [True]
    66 Text feature [ic50] present in test data point [True]
    67 Text feature [response] present in test data point [True]
    68 Text feature [cell] present in test data point [True]
    69 Text feature [patient] present in test data point [True]
    71 Text feature [sensitive] present in test data point [True]
    73 Text feature [potential] present in test data point [True]
    74 Text feature [ras] present in test data point [True]
    75 Text feature [predicted] present in test data point [True]
    76 Text feature [advanced] present in test data point [True]
    79 Text feature [respond] present in test data point [True]
    80 Text feature [amplification] present in test data point [True]
    81 Text feature [nuclear] present in test data point [True]
    82 Text feature [proliferation] present in test data point [True]
    83 Text feature [trial] present in test data point [True]
    86 Text feature [transform] present in test data point [True]
    87 Text feature [harboring] present in test data point [True]
    88 Text feature [pathway] present in test data point [True]
    90 Text feature [pten] present in test data point [True]
    91 Text feature [lines] present in test data point [True]
    92 Text feature [pi3k] present in test data point [True]
    94 Text feature [lung] present in test data point [True]
    95 Text feature [classified] present in test data point [True]
    99 Text feature [sensitivity] present in test data point [True]
    Out of the top  100  features  74 are present in query point
    

    4.5.3. Hyper paramter tuning (With Response Coding)

    In [284]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10,50,100,200,500,1000]
    max_depth = [2,3,5,10]
    cv_log_error_array = []
    for i in alpha:
        for j in max_depth:
            print("for n_estimators =", i,"and max depth = ", j)
            clf = RandomForestClassifier(n_estimators=i, criterion='gini', max_depth=j, random_state=42, n_jobs=-1)
            clf.fit(train_x_responseCoding, train_y)
            sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
            sig_clf.fit(train_x_responseCoding, train_y)
            sig_clf_probs = sig_clf.predict_proba(cv_x_responseCoding)
            cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
            print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    '''
    fig, ax = plt.subplots()
    features = np.dot(np.array(alpha)[:,None],np.array(max_depth)[None]).ravel()
    ax.plot(features, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[int(i/4)],max_depth[int(i%4)],str(txt)), (features[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    '''
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/4)], criterion='gini', max_depth=max_depth[int(best_alpha%4)], random_state=42, n_jobs=-1)
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_responseCoding)
    print('For values of best alpha = ', alpha[int(best_alpha/4)], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_responseCoding)
    print('For values of best alpha = ', alpha[int(best_alpha/4)], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_responseCoding)
    print('For values of best alpha = ', alpha[int(best_alpha/4)], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for n_estimators = 10 and max depth =  2
    Log Loss : 2.134559183542347
    for n_estimators = 10 and max depth =  3
    Log Loss : 1.6986595236413289
    for n_estimators = 10 and max depth =  5
    Log Loss : 1.3087805771055592
    for n_estimators = 10 and max depth =  10
    Log Loss : 1.7473129038487056
    for n_estimators = 50 and max depth =  2
    Log Loss : 1.713611972456188
    for n_estimators = 50 and max depth =  3
    Log Loss : 1.348759034314188
    for n_estimators = 50 and max depth =  5
    Log Loss : 1.1631729403859215
    for n_estimators = 50 and max depth =  10
    Log Loss : 1.6206307856002518
    for n_estimators = 100 and max depth =  2
    Log Loss : 1.547499750624011
    for n_estimators = 100 and max depth =  3
    Log Loss : 1.367175685104317
    for n_estimators = 100 and max depth =  5
    Log Loss : 1.2096820653557683
    for n_estimators = 100 and max depth =  10
    Log Loss : 1.5865651771717832
    for n_estimators = 200 and max depth =  2
    Log Loss : 1.5744674423408953
    for n_estimators = 200 and max depth =  3
    Log Loss : 1.317098017675394
    for n_estimators = 200 and max depth =  5
    Log Loss : 1.221262283475889
    for n_estimators = 200 and max depth =  10
    Log Loss : 1.5666903796057539
    for n_estimators = 500 and max depth =  2
    Log Loss : 1.5816470808142502
    for n_estimators = 500 and max depth =  3
    Log Loss : 1.4119029712913718
    for n_estimators = 500 and max depth =  5
    Log Loss : 1.2599288508644928
    for n_estimators = 500 and max depth =  10
    Log Loss : 1.6016271902270371
    for n_estimators = 1000 and max depth =  2
    Log Loss : 1.5546387320729438
    for n_estimators = 1000 and max depth =  3
    Log Loss : 1.4105956670693958
    for n_estimators = 1000 and max depth =  5
    Log Loss : 1.260818064638381
    for n_estimators = 1000 and max depth =  10
    Log Loss : 1.572973476510051
    For values of best alpha =  50 The train log loss is: 0.06676936890896665
    For values of best alpha =  50 The cross validation log loss is: 1.1631729403859215
    For values of best alpha =  50 The test log loss is: 1.197920364468122
    

    4.5.4. Testing model with best hyper parameters (Response Coding)

    In [285]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    clf = RandomForestClassifier(max_depth=max_depth[int(best_alpha%4)], n_estimators=alpha[int(best_alpha/4)], criterion='gini', max_features='auto',random_state=42)
    predict_and_plot_confusion_matrix(train_x_responseCoding, train_y,cv_x_responseCoding,cv_y, clf)
    
    Log loss : 1.1631729403859217
    Number of mis-classified points : 0.41729323308270677
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.5.5. Feature Importance

    4.5.5.1. Correctly Classified point

    In [286]:
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/4)], criterion='gini', max_depth=max_depth[int(best_alpha%4)], random_state=42, n_jobs=-1)
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    
    test_point_index = 1
    no_feature = 27
    predicted_cls = sig_clf.predict(test_x_responseCoding[test_point_index].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_responseCoding[test_point_index].reshape(1,-1)),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    for i in indices:
        if i<9:
            print("Gene is important feature")
        elif i<18:
            print("Variation is important feature")
        else:
            print("Text is important feature")
    
    Predicted Class : 1
    Predicted Class Probabilities: [[0.3371 0.0094 0.0903 0.069  0.2148 0.2541 0.0043 0.0084 0.0126]]
    Actual Class : 6
    --------------------------------------------------
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Gene is important feature
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Gene is important feature
    Variation is important feature
    Gene is important feature
    Gene is important feature
    Gene is important feature
    Text is important feature
    Variation is important feature
    Text is important feature
    Text is important feature
    Variation is important feature
    Gene is important feature
    Gene is important feature
    Text is important feature
    Gene is important feature
    Gene is important feature
    

    4.5.5.2. Incorrectly Classified point

    In [287]:
    test_point_index = 100
    predicted_cls = sig_clf.predict(test_x_responseCoding[test_point_index].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_responseCoding[test_point_index].reshape(1,-1)),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    for i in indices:
        if i<9:
            print("Gene is important feature")
        elif i<18:
            print("Variation is important feature")
        else:
            print("Text is important feature")
    
    Predicted Class : 2
    Predicted Class Probabilities: [[0.0238 0.4701 0.0882 0.0295 0.0351 0.0694 0.2534 0.0198 0.0107]]
    Actual Class : 5
    --------------------------------------------------
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Gene is important feature
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Gene is important feature
    Variation is important feature
    Gene is important feature
    Gene is important feature
    Gene is important feature
    Text is important feature
    Variation is important feature
    Text is important feature
    Text is important feature
    Variation is important feature
    Gene is important feature
    Gene is important feature
    Text is important feature
    Gene is important feature
    Gene is important feature
    

    4.7 Stack the models

    4.7.1 testing with hyper parameter tuning

    In [288]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestClassifier.html
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    
    clf1 = SGDClassifier(alpha=0.001, penalty='l2', loss='log', class_weight='balanced', random_state=0)
    clf1.fit(train_x_onehotCoding, train_y)
    sig_clf1 = CalibratedClassifierCV(clf1, method="sigmoid")
    
    clf2 = SGDClassifier(alpha=1, penalty='l2', loss='hinge', class_weight='balanced', random_state=0)
    clf2.fit(train_x_onehotCoding, train_y)
    sig_clf2 = CalibratedClassifierCV(clf2, method="sigmoid")
    
    
    clf3 = MultinomialNB(alpha=0.001)
    clf3.fit(train_x_onehotCoding, train_y)
    sig_clf3 = CalibratedClassifierCV(clf3, method="sigmoid")
    
    sig_clf1.fit(train_x_onehotCoding, train_y)
    print("Logistic Regression :  Log Loss: %0.2f" % (log_loss(cv_y, sig_clf1.predict_proba(cv_x_onehotCoding))))
    sig_clf2.fit(train_x_onehotCoding, train_y)
    print("Support vector machines : Log Loss: %0.2f" % (log_loss(cv_y, sig_clf2.predict_proba(cv_x_onehotCoding))))
    sig_clf3.fit(train_x_onehotCoding, train_y)
    print("Naive Bayes : Log Loss: %0.2f" % (log_loss(cv_y, sig_clf3.predict_proba(cv_x_onehotCoding))))
    print("-"*50)
    alpha = [0.0001,0.001,0.01,0.1,1,10] 
    best_alpha = 999
    for i in alpha:
        lr = LogisticRegression(C=i)
        sclf = StackingClassifier(classifiers=[sig_clf1, sig_clf2, sig_clf3], meta_classifier=lr, use_probas=True)
        sclf.fit(train_x_onehotCoding, train_y)
        print("Stacking Classifer : for the value of alpha: %f Log Loss: %0.3f" % (i, log_loss(cv_y, sclf.predict_proba(cv_x_onehotCoding))))
        log_error =log_loss(cv_y, sclf.predict_proba(cv_x_onehotCoding))
        if best_alpha > log_error:
            best_alpha = log_error
    
    Logistic Regression :  Log Loss: 1.02
    Support vector machines : Log Loss: 1.47
    Naive Bayes : Log Loss: 1.22
    --------------------------------------------------
    Stacking Classifer : for the value of alpha: 0.000100 Log Loss: 2.178
    Stacking Classifer : for the value of alpha: 0.001000 Log Loss: 2.032
    Stacking Classifer : for the value of alpha: 0.010000 Log Loss: 1.487
    Stacking Classifer : for the value of alpha: 0.100000 Log Loss: 1.107
    Stacking Classifer : for the value of alpha: 1.000000 Log Loss: 1.198
    Stacking Classifer : for the value of alpha: 10.000000 Log Loss: 1.396
    

    4.7.2 testing the model with the best hyper parameters

    In [289]:
    lr = LogisticRegression(C=0.1)
    sclf = StackingClassifier(classifiers=[sig_clf1, sig_clf2, sig_clf3], meta_classifier=lr, use_probas=True)
    sclf.fit(train_x_onehotCoding, train_y)
    
    log_error = log_loss(train_y, sclf.predict_proba(train_x_onehotCoding))
    print("Log loss (train) on the stacking classifier :",log_error)
    
    log_error = log_loss(cv_y, sclf.predict_proba(cv_x_onehotCoding))
    print("Log loss (CV) on the stacking classifier :",log_error)
    
    log_error = log_loss(test_y, sclf.predict_proba(test_x_onehotCoding))
    print("Log loss (test) on the stacking classifier :",log_error)
    
    print("Number of missclassified point :", np.count_nonzero((sclf.predict(test_x_onehotCoding)- test_y))/test_y.shape[0])
    plot_confusion_matrix(test_y=test_y, predict_y=sclf.predict(test_x_onehotCoding))
    
    Log loss (train) on the stacking classifier : 0.6266161291069388
    Log loss (CV) on the stacking classifier : 1.1071446569115515
    Log loss (test) on the stacking classifier : 1.1364278928245028
    Number of missclassified point : 0.3699248120300752
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.7.3 Maximum Voting classifier

    In [290]:
    #Refer:http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.VotingClassifier.html
    from sklearn.ensemble import VotingClassifier
    vclf = VotingClassifier(estimators=[('lr', sig_clf1), ('svc', sig_clf2), ('rf', sig_clf3)], voting='soft')
    vclf.fit(train_x_onehotCoding, train_y)
    print("Log loss (train) on the VotingClassifier :", log_loss(train_y, vclf.predict_proba(train_x_onehotCoding)))
    print("Log loss (CV) on the VotingClassifier :", log_loss(cv_y, vclf.predict_proba(cv_x_onehotCoding)))
    print("Log loss (test) on the VotingClassifier :", log_loss(test_y, vclf.predict_proba(test_x_onehotCoding)))
    print("Number of missclassified point :", np.count_nonzero((vclf.predict(test_x_onehotCoding)- test_y))/test_y.shape[0])
    plot_confusion_matrix(test_y=test_y, predict_y=vclf.predict(test_x_onehotCoding))
    
    Log loss (train) on the VotingClassifier : 0.8435804441112051
    Log loss (CV) on the VotingClassifier : 1.1045785609319974
    Log loss (test) on the VotingClassifier : 1.1416767089237367
    Number of missclassified point : 0.3804511278195489
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    
    CONCLUSION (a). Procedure Followed :- STEP 1:- Replace CountVectorizer() by TfidfVectorizer() in all the one hot encoding section of gene , variation and text features
    In [90]:
    # Creating table using PrettyTable library
    from prettytable import PrettyTable
    
    # Names of models
    names =['Naive Bayes','K-Nearest Neighbour','LR With Class Balancing',\
            'LR Without Class Balancing','Linear SVM',\
            'RF With One hot Encoding','RF With Response Coding',\
            'Stacking Classifier','Maximum Voting Classifier']
    
    # Training loss
    train_loss = [0.91968163, 0.631220535,0.5727270346,0.557245418,0.68713377,0.638505713,0.066769368,0.626616,0.84358044] 
    
    # Cross Validation loss
    cv_loss = [1.1284635,1.04444527,1.0084458008,1.01008217,1.0984432,1.1252161,1.1631729,1.107144,1.10457856]
    
    # Test loss
    test_loss = [1.1807045,1.0135835,1.08468508,1.10286512,1.1834357,1.12912,1.197920364468122,1.13642,1.1416767]
    
    # Percentage Misclassified points
    misclassified = [0.3947368,0.353383,0.3477443,0.34398496,0.359022, 0.390977,0.41729323,0.3699248,0.38045]
    
    numbering = [1,2,3,4,5,6,7,8,9]
    alpha=[1000,11,.001,.001,.01,1000,50,.1,'NaN']
    # Initializing prettytable
    ptable = PrettyTable()
    
    # Adding columns
    ptable.add_column("S.NO.",numbering)
    ptable.add_column("MODEL",names)
    ptable.add_column("hyperparameter",alpha)
    ptable.add_column("Train_loss",train_loss)
    ptable.add_column("CV_loss",cv_loss)
    ptable.add_column("Test_loss",test_loss)
    ptable.add_column("Misclassified(%)",misclassified)
    
    # Printing the Table
    print(ptable)
    
    +-------+----------------------------+----------------+--------------+--------------+-------------------+------------------+
    | S.NO. |           MODEL            | hyperparameter |  Train_loss  |   CV_loss    |     Test_loss     | Misclassified(%) |
    +-------+----------------------------+----------------+--------------+--------------+-------------------+------------------+
    |   1   |        Naive Bayes         |      1000      |  0.91968163  |  1.1284635   |     1.1807045     |    0.3947368     |
    |   2   |    K-Nearest Neighbour     |       11       | 0.631220535  |  1.04444527  |     1.0135835     |     0.353383     |
    |   3   |  LR With Class Balancing   |     0.001      | 0.5727270346 | 1.0084458008 |     1.08468508    |    0.3477443     |
    |   4   | LR Without Class Balancing |     0.001      | 0.557245418  |  1.01008217  |     1.10286512    |    0.34398496    |
    |   5   |         Linear SVM         |      0.01      |  0.68713377  |  1.0984432   |     1.1834357     |     0.359022     |
    |   6   |  RF With One hot Encoding  |      1000      | 0.638505713  |  1.1252161   |      1.12912      |     0.390977     |
    |   7   |  RF With Response Coding   |       50       | 0.066769368  |  1.1631729   | 1.197920364468122 |    0.41729323    |
    |   8   |    Stacking Classifier     |      0.1       |   0.626616   |   1.107144   |      1.13642      |    0.3699248     |
    |   9   | Maximum Voting Classifier  |      NaN       |  0.84358044  |  1.10457856  |     1.1416767     |     0.38045      |
    +-------+----------------------------+----------------+--------------+--------------+-------------------+------------------+
    

    -------------------------------------------------TASK2-----------------------------------------------------

    Instead of using all the words in the dataset, use only the top 1000 words based of tf-idf values

    In [103]:
    # building a CountVectorizer with all the words that occured minimum 3 times in train data
    text_vectorizer = TfidfVectorizer(min_df=3,max_features=1000)
    train_text_feature_onehotCoding = text_vectorizer.fit_transform(train_df['TEXT'])
    # getting all the feature names (words)
    train_text_features= text_vectorizer.get_feature_names()
    
    # train_text_feature_onehotCoding.sum(axis=0).A1 will sum every row and returns (1*number of features) vector
    train_text_fea_counts = train_text_feature_onehotCoding.sum(axis=0).A1
    
    # zip(list(text_features),text_fea_counts) will zip a word with its number of times it occured
    text_fea_dict = dict(zip(list(train_text_features),train_text_fea_counts))
    
    
    print("Total number of unique words in train data :", len(train_text_features))
    
    Total number of unique words in train data : 1000
    
    In [104]:
    dict_list = []
    # dict_list =[] contains 9 dictoinaries each corresponds to a class
    for i in range(1,10):
        cls_text = train_df[train_df['Class']==i]
        # build a word dict based on the words in that class
        dict_list.append(extract_dictionary_paddle(cls_text))
        # append it to dict_list
    
    # dict_list[i] is build on i'th  class text data
    # total_dict is buid on whole training text data
    total_dict = extract_dictionary_paddle(train_df)
    
    
    confuse_array = []
    for i in train_text_features:
        ratios = []
        max_val = -1
        for j in range(0,9):
            ratios.append((dict_list[j][i]+10 )/(total_dict[i]+90))
        confuse_array.append(ratios)
    confuse_array = np.array(confuse_array)
    
    In [293]:
    #response coding of text features
    train_text_feature_responseCoding  = get_text_responsecoding(train_df)
    test_text_feature_responseCoding  = get_text_responsecoding(test_df)
    cv_text_feature_responseCoding  = get_text_responsecoding(cv_df)
    
    In [294]:
    # https://stackoverflow.com/a/16202486
    # we convert each row values such that they sum to 1  
    train_text_feature_responseCoding = (train_text_feature_responseCoding.T/train_text_feature_responseCoding.sum(axis=1)).T
    test_text_feature_responseCoding = (test_text_feature_responseCoding.T/test_text_feature_responseCoding.sum(axis=1)).T
    cv_text_feature_responseCoding = (cv_text_feature_responseCoding.T/cv_text_feature_responseCoding.sum(axis=1)).T
    
    In [105]:
    # don't forget to normalize every feature
    train_text_feature_onehotCoding = normalize(train_text_feature_onehotCoding, axis=0)
    
    # we use the same vectorizer that was trained on train data
    test_text_feature_onehotCoding = text_vectorizer.transform(test_df['TEXT'])
    # don't forget to normalize every feature
    test_text_feature_onehotCoding = normalize(test_text_feature_onehotCoding, axis=0)
    
    # we use the same vectorizer that was trained on train data
    cv_text_feature_onehotCoding = text_vectorizer.transform(cv_df['TEXT'])
    # don't forget to normalize every feature
    cv_text_feature_onehotCoding = normalize(cv_text_feature_onehotCoding, axis=0)
    
    In [106]:
    #https://stackoverflow.com/a/2258273/4084039
    sorted_text_fea_dict = dict(sorted(text_fea_dict.items(), key=lambda x: x[1] , reverse=True))
    sorted_text_occur = np.array(list(sorted_text_fea_dict.values()))
    
    In [107]:
    # Number of words for a given frequency.
    print(Counter(sorted_text_occur))
    
    Counter({160.69752091417246: 1, 111.66779690222992: 1, 85.73673777202926: 1, 82.1518763563256: 1, 78.56624289956231: 1, 74.98940181349134: 1, 73.26000346578311: 1, 73.20978425569753: 1, 69.64941923631267: 1, 69.2062004086183: 1, 67.88796346785955: 1, 57.98160797366396: 1, 57.84398907203985: 1, 57.60762069756587: 1, 56.15805740940844: 1, 51.11759503127621: 1, 50.76484045263077: 1, 50.480561507066525: 1, 50.167231525465006: 1, 50.092324840116866: 1, 48.09558887824598: 1, 46.33788052904103: 1, 43.607937554383476: 1, 43.48839507465794: 1, 43.39482784961246: 1, 42.464698872419646: 1, 42.285314977425585: 1, 41.89918871322554: 1, 41.15288537059065: 1, 40.456533650696166: 1, 40.40325621493705: 1, 39.87559501958993: 1, 38.476245042641004: 1, 37.929146737379064: 1, 37.679395404596555: 1, 37.561584777192415: 1, 36.29601996796759: 1, 35.72139782506888: 1, 34.24967297692906: 1, 33.773335170005126: 1, 33.14412984208479: 1, 32.53448735353627: 1, 32.24501067856765: 1, 32.03619035815953: 1, 31.2810501792445: 1, 30.552413259139485: 1, 29.5495548790496: 1, 29.39100580837973: 1, 28.753845105823803: 1, 28.087611634399966: 1, 27.903343261646437: 1, 27.417577657996016: 1, 27.348266468007314: 1, 27.20881639280238: 1, 27.069332853393508: 1, 26.858237790713613: 1, 26.839330439689395: 1, 26.73292988971963: 1, 26.491628959810868: 1, 26.3489667992871: 1, 26.32727505745386: 1, 26.150026888907444: 1, 26.061382752576815: 1, 25.811096348341373: 1, 25.605680886043263: 1, 25.561255283869986: 1, 25.295092479509066: 1, 25.172635867194007: 1, 24.9174950482844: 1, 24.621869355012024: 1, 24.60658538186339: 1, 24.291863971866984: 1, 23.900891972563148: 1, 23.845280537264905: 1, 23.01296252472429: 1, 23.011246220749936: 1, 22.78577079662308: 1, 22.748140309320934: 1, 22.401223518422363: 1, 22.351507441920212: 1, 22.3214933323666: 1, 21.887253100215958: 1, 21.781635384166314: 1, 21.696345462249187: 1, 21.685006767105158: 1, 21.573665375225684: 1, 21.477406180932444: 1, 21.13550896209545: 1, 21.046768202821333: 1, 20.861581353339744: 1, 20.766196039782933: 1, 20.609325142872656: 1, 20.576543856922108: 1, 20.494412313564847: 1, 20.4351639030942: 1, 20.375951257012858: 1, 20.037888126248994: 1, 20.018744256532944: 1, 20.01018804891711: 1, 19.992450427921863: 1, 19.988740042114756: 1, 19.884417097406903: 1, 19.883103748703988: 1, 19.762039224817098: 1, 19.68434061829492: 1, 19.54578731682799: 1, 19.53509105938881: 1, 19.315359671460254: 1, 19.264076468845072: 1, 19.222127250496534: 1, 19.196720639538736: 1, 19.055842464007863: 1, 19.02212076473847: 1, 18.9556059565037: 1, 18.941003504015086: 1, 18.892728839987086: 1, 18.87148315785056: 1, 18.863320309424136: 1, 18.863105310950665: 1, 18.68880842069691: 1, 18.636667918760217: 1, 18.624995404753957: 1, 18.5655518534223: 1, 18.433954434443695: 1, 18.366400598181123: 1, 18.089548665962067: 1, 18.018719228329594: 1, 17.98900373664803: 1, 17.976549439171723: 1, 17.962756235267715: 1, 17.832760417587494: 1, 17.746143009598452: 1, 17.70677519924651: 1, 17.70315998187974: 1, 17.67768125790358: 1, 17.59704955077867: 1, 17.43058609031929: 1, 17.38028221124049: 1, 17.280926550388248: 1, 17.26645672298583: 1, 17.120235710989636: 1, 17.073123364093284: 1, 16.973825278006274: 1, 16.919371975234842: 1, 16.791912614256727: 1, 16.787801928865978: 1, 16.746807309603298: 1, 16.733923203474014: 1, 16.618100853020895: 1, 16.580092138848652: 1, 16.54957773596965: 1, 16.376471802155173: 1, 16.31911137766756: 1, 16.28785755400375: 1, 16.15835963450302: 1, 16.13760626288099: 1, 16.120158465838298: 1, 16.07532128025215: 1, 16.01726203355157: 1, 15.93063397113787: 1, 15.805250970343009: 1, 15.751227494669134: 1, 15.689987903649373: 1, 15.647457670958204: 1, 15.579347177598793: 1, 15.548636358579433: 1, 15.41968133637484: 1, 15.412068262962528: 1, 15.369512903520144: 1, 15.310792437898305: 1, 15.258776296401845: 1, 15.190184417536251: 1, 15.159094389456955: 1, 15.156407122960935: 1, 15.127045392668357: 1, 15.09242724382732: 1, 15.058569581251433: 1, 14.957042226921878: 1, 14.86228909233047: 1, 14.861867732746973: 1, 14.770735552426174: 1, 14.735725461691036: 1, 14.730594797299633: 1, 14.68275912683014: 1, 14.670690818894018: 1, 14.658112724048848: 1, 14.629535489554: 1, 14.574137481055622: 1, 14.490149440292189: 1, 14.454302004889618: 1, 14.450100259806238: 1, 14.446728816944201: 1, 14.43222518613588: 1, 14.403465373989201: 1, 14.364334382238749: 1, 14.29900222733481: 1, 14.26174699442679: 1, 14.261226218887602: 1, 14.252717409132318: 1, 14.21615830305191: 1, 14.174306469386883: 1, 14.120454494803797: 1, 14.073714806257742: 1, 14.009188993255407: 1, 13.989806457319382: 1, 13.934986949488819: 1, 13.888675737780268: 1, 13.838015857879162: 1, 13.721885116405586: 1, 13.710615877710985: 1, 13.686218661151303: 1, 13.66663389417163: 1, 13.6579676262595: 1, 13.648570402700512: 1, 13.630581592607353: 1, 13.604647296670816: 1, 13.583669287196852: 1, 13.581853471734048: 1, 13.560103094682722: 1, 13.527892293790133: 1, 13.523264780550964: 1, 13.467486376988331: 1, 13.419657571049836: 1, 13.386652886192811: 1, 13.313425642372142: 1, 13.311664718225307: 1, 13.306227230107691: 1, 13.30257936097869: 1, 13.296452713216022: 1, 13.288818145944497: 1, 13.253989157767384: 1, 13.212110152839218: 1, 13.203154646543684: 1, 13.178424994704583: 1, 13.099721434435533: 1, 13.088340312236628: 1, 13.087001257646136: 1, 13.058968538140077: 1, 13.042599038047666: 1, 12.931683576302438: 1, 12.912242842159948: 1, 12.907098376163962: 1, 12.898024549681613: 1, 12.887970860054802: 1, 12.837474280072676: 1, 12.835033921840267: 1, 12.82425429314014: 1, 12.77342331752637: 1, 12.73811440992822: 1, 12.729306411537245: 1, 12.68605257257562: 1, 12.666935429426301: 1, 12.629607290409893: 1, 12.605951119250799: 1, 12.589215941191423: 1, 12.53728962374527: 1, 12.52468106725608: 1, 12.498136961153326: 1, 12.482337949677968: 1, 12.465077967567478: 1, 12.454036643589875: 1, 12.44047250636266: 1, 12.378486141008029: 1, 12.366640300333984: 1, 12.343620042615946: 1, 12.341946497684054: 1, 12.3379833180064: 1, 12.324000421450771: 1, 12.320775486336956: 1, 12.314366361084: 1, 12.305152129138003: 1, 12.261932543798563: 1, 12.259184190620628: 1, 12.209580439422618: 1, 12.188284312216165: 1, 12.186994162625965: 1, 12.177403324017337: 1, 12.168000128167213: 1, 12.090477493528077: 1, 12.079560667892766: 1, 12.078843405574007: 1, 12.046480880174256: 1, 12.024607012893018: 1, 12.00827273622197: 1, 12.000351171554842: 1, 11.993646875654532: 1, 11.91052459694052: 1, 11.887091212078944: 1, 11.864035991038868: 1, 11.835745646811931: 1, 11.792539895852395: 1, 11.78412334700461: 1, 11.75096636938242: 1, 11.68027848075044: 1, 11.6661454803404: 1, 11.644982321978128: 1, 11.596763137453886: 1, 11.586758260619808: 1, 11.57692111585027: 1, 11.57075122827572: 1, 11.544047296164823: 1, 11.53751018890791: 1, 11.522877936277109: 1, 11.500937599455826: 1, 11.48947166499394: 1, 11.484693035759792: 1, 11.447773967087711: 1, 11.428362318927107: 1, 11.413851372433728: 1, 11.343038847296755: 1, 11.33122540685428: 1, 11.32245223152886: 1, 11.275851034174051: 1, 11.272993992625636: 1, 11.249824867258111: 1, 11.22934714752485: 1, 11.217686843006332: 1, 11.213878983118107: 1, 11.195993965074065: 1, 11.193572197317776: 1, 11.189955617719324: 1, 11.187461261431888: 1, 11.18702850651831: 1, 11.101718432808632: 1, 11.100603086957273: 1, 11.083950755914634: 1, 11.074859861573398: 1, 11.058721395028238: 1, 11.049275641934566: 1, 11.026966105476513: 1, 10.941426005594304: 1, 10.817235887116018: 1, 10.785683750816304: 1, 10.784623059753956: 1, 10.766107024911598: 1, 10.752825937269957: 1, 10.717998706059952: 1, 10.716969162539044: 1, 10.691869686985873: 1, 10.691226592807809: 1, 10.6905744979782: 1, 10.68624650824289: 1, 10.661459439897298: 1, 10.656906424544996: 1, 10.644621774778331: 1, 10.638515842126775: 1, 10.628980535784905: 1, 10.626416445068212: 1, 10.58519310821009: 1, 10.541479271025297: 1, 10.528947480185593: 1, 10.518765863754549: 1, 10.51365377627681: 1, 10.510599197878872: 1, 10.51050782429457: 1, 10.470381352195641: 1, 10.448131883670763: 1, 10.433719257202576: 1, 10.401877102724255: 1, 10.39800704300976: 1, 10.388711003189062: 1, 10.384339320898826: 1, 10.37496412870927: 1, 10.372623440626015: 1, 10.302903022191897: 1, 10.302059234439211: 1, 10.295060756820329: 1, 10.291882557099878: 1, 10.261814711859595: 1, 10.23503606602303: 1, 10.210104990728416: 1, 10.209048697228232: 1, 10.206551534187975: 1, 10.186210472285401: 1, 10.09012506350459: 1, 10.080107420614885: 1, 10.074624541401395: 1, 10.063838154305007: 1, 10.05709282558136: 1, 10.048939396366205: 1, 10.048025223158099: 1, 10.045561172524486: 1, 10.028369136130106: 1, 10.010504292132774: 1, 10.003881662806325: 1, 9.983092137484318: 1, 9.9311951383509: 1, 9.929749206234325: 1, 9.921910996863874: 1, 9.909685805883203: 1, 9.90022046608948: 1, 9.89030253690283: 1, 9.866406334348376: 1, 9.770094682754962: 1, 9.769474084625376: 1, 9.748015625839237: 1, 9.721608398539395: 1, 9.701731830964668: 1, 9.668861764183273: 1, 9.656193233791477: 1, 9.637389912765425: 1, 9.634870720197226: 1, 9.618948233392906: 1, 9.612820202039318: 1, 9.559124240906213: 1, 9.552876765531172: 1, 9.547270864018271: 1, 9.531759230231444: 1, 9.530452884696246: 1, 9.514767380538405: 1, 9.507818505777344: 1, 9.505290646236661: 1, 9.458548896716827: 1, 9.457816708805012: 1, 9.426234282707933: 1, 9.425257988417243: 1, 9.419571518057094: 1, 9.41193602076223: 1, 9.40097425508377: 1, 9.400015014333075: 1, 9.381763811397674: 1, 9.37060455871508: 1, 9.358862285613606: 1, 9.358365755596811: 1, 9.35382782836485: 1, 9.343362282660097: 1, 9.320187467455792: 1, 9.314345670824629: 1, 9.30055804700819: 1, 9.297330956771997: 1, 9.290833982628044: 1, 9.280929122876168: 1, 9.25897678823379: 1, 9.257991767533756: 1, 9.239090630599156: 1, 9.238584777356419: 1, 9.228236341910362: 1, 9.215213233133145: 1, 9.168275950684302: 1, 9.167335403775539: 1, 9.144824870757697: 1, 9.142994909137895: 1, 9.133936794999688: 1, 9.11220532414987: 1, 9.095424242787322: 1, 9.091280993249086: 1, 9.079050389186225: 1, 9.061083853534637: 1, 9.050352874090475: 1, 9.039929979079723: 1, 9.006378181923877: 1, 9.0022479868257: 1, 8.984081684378836: 1, 8.950592665851705: 1, 8.944730512893699: 1, 8.927619650100423: 1, 8.92148476282422: 1, 8.91249776604543: 1, 8.90058674213912: 1, 8.90010340516339: 1, 8.88419527559724: 1, 8.862921295904686: 1, 8.840409979367053: 1, 8.83434762604181: 1, 8.830942115522964: 1, 8.792103990679811: 1, 8.787351612350632: 1, 8.771598832926768: 1, 8.76089737294981: 1, 8.760406198532921: 1, 8.741452024274224: 1, 8.72007715158465: 1, 8.683586033331558: 1, 8.678533018066833: 1, 8.661543590857981: 1, 8.651549516221595: 1, 8.606069289847776: 1, 8.597078269229184: 1, 8.592066929160058: 1, 8.590592704022287: 1, 8.585049405680175: 1, 8.578187600205121: 1, 8.566523435629396: 1, 8.554776995388147: 1, 8.541720673833135: 1, 8.532772328799014: 1, 8.531382359456355: 1, 8.52635756062016: 1, 8.52517650091898: 1, 8.517448278176895: 1, 8.503307564020101: 1, 8.501588426073114: 1, 8.497798090698096: 1, 8.477321706670708: 1, 8.443422505337178: 1, 8.434680051771853: 1, 8.432889593611097: 1, 8.432159127524285: 1, 8.408793633178103: 1, 8.392611735288224: 1, 8.364983036164494: 1, 8.33835156769259: 1, 8.329029054351137: 1, 8.327543324789884: 1, 8.290026689210169: 1, 8.289400781402573: 1, 8.275770019397495: 1, 8.270419187636785: 1, 8.249165196692317: 1, 8.243363200306856: 1, 8.241477789142813: 1, 8.240349464726327: 1, 8.230175996792534: 1, 8.221058729471647: 1, 8.208329066701898: 1, 8.197930835390823: 1, 8.186314798769232: 1, 8.178209759348839: 1, 8.175818543539867: 1, 8.154646549965904: 1, 8.152491101040816: 1, 8.137134411996849: 1, 8.13597047182122: 1, 8.134607275213966: 1, 8.117223743881661: 1, 8.10840879258961: 1, 8.0846344007606: 1, 8.081309597389774: 1, 8.072840082244614: 1, 8.06444712881767: 1, 8.063185102519009: 1, 8.053373094596743: 1, 8.046418208023118: 1, 8.04442276068094: 1, 8.007784013693763: 1, 7.9946163079183705: 1, 7.987930678042628: 1, 7.978824576418638: 1, 7.932640017441704: 1, 7.909623698356335: 1, 7.901788292010337: 1, 7.8765248282479705: 1, 7.858868739685971: 1, 7.857777117445826: 1, 7.845388546567917: 1, 7.829534603854311: 1, 7.809633438718062: 1, 7.809612400980013: 1, 7.777330050320673: 1, 7.775246841983418: 1, 7.739251558323209: 1, 7.737115484228283: 1, 7.736103128281119: 1, 7.730224043097786: 1, 7.728523440638128: 1, 7.710370450089991: 1, 7.686507812837847: 1, 7.678650312942439: 1, 7.678236470543483: 1, 7.676148512252194: 1, 7.663661332766622: 1, 7.649902278347275: 1, 7.635443909071605: 1, 7.634243785695347: 1, 7.627754650141104: 1, 7.62425908242211: 1, 7.622176237938388: 1, 7.6211161828035: 1, 7.6160468338257985: 1, 7.614083585472855: 1, 7.608921186799996: 1, 7.602196836968638: 1, 7.601961539990949: 1, 7.597425202615871: 1, 7.589725069454119: 1, 7.585161688360413: 1, 7.582746552377472: 1, 7.529849165077949: 1, 7.52762488605832: 1, 7.489405848262039: 1, 7.477522436844285: 1, 7.42178353543775: 1, 7.367113329200212: 1, 7.361103135326454: 1, 7.351666856467165: 1, 7.335047772094532: 1, 7.306320873636251: 1, 7.2836838243578805: 1, 7.283038334810282: 1, 7.274020353206658: 1, 7.239745770901196: 1, 7.234426012911681: 1, 7.227463108881284: 1, 7.223941484708142: 1, 7.212434242797146: 1, 7.1898598739234885: 1, 7.188172410999038: 1, 7.1429444085496065: 1, 7.124870496889131: 1, 7.115522385240052: 1, 7.09355644398945: 1, 7.090998319480502: 1, 7.08448126286168: 1, 7.080049841977606: 1, 7.078148419548272: 1, 7.071145898341079: 1, 7.068454072601922: 1, 7.052848957468537: 1, 7.048254313549192: 1, 7.0257490757325405: 1, 7.005895158154879: 1, 6.999168053851402: 1, 6.997103116568131: 1, 6.9929434052790995: 1, 6.978519895892349: 1, 6.964441930571095: 1, 6.958676711754975: 1, 6.956376448414201: 1, 6.954377898924824: 1, 6.948904574369731: 1, 6.948019613620214: 1, 6.93811917166314: 1, 6.9368525961657586: 1, 6.9365359549972885: 1, 6.931473661854393: 1, 6.920001207290216: 1, 6.9177070254173305: 1, 6.916661002365947: 1, 6.916601485017123: 1, 6.901278224265959: 1, 6.898644791826394: 1, 6.898139529084711: 1, 6.896663760944227: 1, 6.8789791055710285: 1, 6.876462419238291: 1, 6.873039276257735: 1, 6.872494245008398: 1, 6.8711620304806145: 1, 6.871022037471914: 1, 6.868392057036901: 1, 6.867615473079936: 1, 6.866695758395633: 1, 6.8634224618061435: 1, 6.858362417933509: 1, 6.838840318362554: 1, 6.825045989913621: 1, 6.824402608711391: 1, 6.82366205365879: 1, 6.820010435260525: 1, 6.807672243502877: 1, 6.792765088383601: 1, 6.786413056408488: 1, 6.782613953569945: 1, 6.774047920411649: 1, 6.772204209071752: 1, 6.770481795010018: 1, 6.7640569704448295: 1, 6.759322365890259: 1, 6.747567146363585: 1, 6.7392601163981265: 1, 6.722046966053669: 1, 6.720757401041614: 1, 6.712063305855643: 1, 6.701877655752674: 1, 6.698631226450279: 1, 6.695988398014631: 1, 6.687087981890542: 1, 6.6795713951234905: 1, 6.677092608034866: 1, 6.675648338180623: 1, 6.662732528052592: 1, 6.649264647317: 1, 6.64786616822381: 1, 6.646207648880975: 1, 6.6196066689540265: 1, 6.615204453781248: 1, 6.614486749269302: 1, 6.604339825118919: 1, 6.586798731181968: 1, 6.583572725945696: 1, 6.570220497952283: 1, 6.568645009640196: 1, 6.55230126102284: 1, 6.545623896314859: 1, 6.543672679382967: 1, 6.5414417887270355: 1, 6.53533384985312: 1, 6.528724903191809: 1, 6.52629925967419: 1, 6.5246276357522435: 1, 6.512222223567383: 1, 6.503212828002501: 1, 6.501086611364206: 1, 6.500953598417819: 1, 6.497355612621716: 1, 6.491105132435878: 1, 6.48960351343013: 1, 6.4750330449875975: 1, 6.470700593694174: 1, 6.456976056920167: 1, 6.447742816609107: 1, 6.445212178775635: 1, 6.438689584632321: 1, 6.432901464730933: 1, 6.430945659872145: 1, 6.406713826333751: 1, 6.400202748281205: 1, 6.399408995444611: 1, 6.3920930726509315: 1, 6.389220948915927: 1, 6.382207887989211: 1, 6.358499797919949: 1, 6.3403585775050075: 1, 6.3389423400768194: 1, 6.335771854617881: 1, 6.334200200781765: 1, 6.320744767698969: 1, 6.316489463427669: 1, 6.315931492428218: 1, 6.314193588281512: 1, 6.306528886325049: 1, 6.300942824944708: 1, 6.291472550393159: 1, 6.2849143885803995: 1, 6.28434170362007: 1, 6.284082453679517: 1, 6.277188956416006: 1, 6.26600910200404: 1, 6.259521214496125: 1, 6.2413818037747015: 1, 6.241081095972807: 1, 6.21205492306924: 1, 6.210417184824512: 1, 6.210137895614956: 1, 6.205069756573335: 1, 6.197805504309352: 1, 6.171447722692673: 1, 6.160130674557748: 1, 6.14828646289066: 1, 6.145494522384912: 1, 6.131479054777209: 1, 6.128720822693743: 1, 6.127079889697801: 1, 6.117783418892751: 1, 6.111643458543764: 1, 6.105220771713826: 1, 6.104670231409974: 1, 6.103020602095803: 1, 6.097235448927965: 1, 6.092309872783592: 1, 6.086552208204113: 1, 6.086334603955749: 1, 6.07777682402392: 1, 6.069835692545607: 1, 6.065666930100913: 1, 6.050527672748531: 1, 6.043689494080407: 1, 6.042530878749287: 1, 6.0363591811161506: 1, 6.030639032435829: 1, 6.027205831681897: 1, 6.026855968434041: 1, 6.022679951741215: 1, 6.016373267985705: 1, 6.005115712080862: 1, 6.00231049229609: 1, 6.001295019780317: 1, 5.959985476636695: 1, 5.9598276386849545: 1, 5.953226527162421: 1, 5.948549957580671: 1, 5.9425501063955455: 1, 5.9336772955824495: 1, 5.916449409273053: 1, 5.907871006042326: 1, 5.886348540847295: 1, 5.877005256494749: 1, 5.869193261264747: 1, 5.862083013166288: 1, 5.855651192536583: 1, 5.851917724701562: 1, 5.850612156605007: 1, 5.8469797882010655: 1, 5.8468544947628285: 1, 5.842419678991099: 1, 5.840757382338773: 1, 5.840755178424274: 1, 5.840647972910823: 1, 5.836847110115363: 1, 5.833297149862635: 1, 5.832999159358815: 1, 5.8323751416728955: 1, 5.832198130049635: 1, 5.83121148651484: 1, 5.82875901751788: 1, 5.823098001292922: 1, 5.816998058765465: 1, 5.812936791375587: 1, 5.812184610080338: 1, 5.8075427123479795: 1, 5.807333942484961: 1, 5.805924841831342: 1, 5.805679957224787: 1, 5.805535220155467: 1, 5.799807263826831: 1, 5.796982735029375: 1, 5.790030064829685: 1, 5.7823490750906545: 1, 5.778505811162525: 1, 5.777968130259785: 1, 5.772120114534337: 1, 5.768935692167098: 1, 5.7676025652240535: 1, 5.739506980269508: 1, 5.7374379830464335: 1, 5.729839198015055: 1, 5.724080838136066: 1, 5.723930485923364: 1, 5.714782971359895: 1, 5.713564160796238: 1, 5.697909007210763: 1, 5.684224028733581: 1, 5.679802500543882: 1, 5.678811229179793: 1, 5.66972984862024: 1, 5.665111564158645: 1, 5.663112730340987: 1, 5.649850857539668: 1, 5.6492914202922595: 1, 5.648798848937896: 1, 5.645516912693418: 1, 5.636916289122532: 1, 5.635330343539886: 1, 5.6230863045818795: 1, 5.615550242126147: 1, 5.613257547002931: 1, 5.608381508886353: 1, 5.595585517929152: 1, 5.59516098371683: 1, 5.588303163997674: 1, 5.587262946981535: 1, 5.5781170555495185: 1, 5.57677639076448: 1, 5.571740181655974: 1, 5.569500458106278: 1, 5.562770276934053: 1, 5.556085124602728: 1, 5.545480752365495: 1, 5.532958790747631: 1, 5.530585245905119: 1, 5.528505013186686: 1, 5.524292688953345: 1, 5.5160471160328495: 1, 5.512376490970338: 1, 5.4907120733472965: 1, 5.488675606409033: 1, 5.487816284354695: 1, 5.486734803895601: 1, 5.485525750159913: 1, 5.454725224802294: 1, 5.45179428323331: 1, 5.4477145963763185: 1, 5.443845041978497: 1, 5.430747709264536: 1, 5.425958948418034: 1, 5.425538389174646: 1, 5.423976911920265: 1, 5.419630932573033: 1, 5.405763423943703: 1, 5.404617959890693: 1, 5.401503050203777: 1, 5.39667360629485: 1, 5.37758796181907: 1, 5.375990399949616: 1, 5.370252468245121: 1, 5.365801812333222: 1, 5.35807320692785: 1, 5.3571116381780035: 1, 5.350048341275304: 1, 5.333492336261713: 1, 5.329646432094867: 1, 5.321272963942811: 1, 5.318009819341803: 1, 5.309697507776302: 1, 5.307072708302567: 1, 5.303366275509537: 1, 5.288454911575033: 1, 5.278260278412991: 1, 5.2619545100622345: 1, 5.261141790234689: 1, 5.241688099000794: 1, 5.223256078768371: 1, 5.2130108979778695: 1, 5.208480714555041: 1, 5.1966476368597325: 1, 5.182266920544748: 1, 5.181383863317674: 1, 5.168639849800449: 1, 5.1682283984198065: 1, 5.160782534836295: 1, 5.158595936337897: 1, 5.147826676515966: 1, 5.142786018267534: 1, 5.14176872792998: 1, 5.141074299747054: 1, 5.138843518541031: 1, 5.138359825976882: 1, 5.1372700950101695: 1, 5.130038540670448: 1, 5.118604004032084: 1, 5.09383400513076: 1, 5.068008190295184: 1, 5.060769469103018: 1, 5.06069369708622: 1, 5.057519066613563: 1, 5.0519118911259415: 1, 5.045188712630098: 1, 5.038116803117761: 1, 5.033487682140175: 1, 5.028008247574122: 1, 5.021303450248103: 1, 5.0161990900377065: 1, 5.0152700804402: 1, 5.010969572302409: 1, 5.007161148208376: 1, 5.006161310061048: 1, 4.9584965767332845: 1, 4.9581171012764065: 1, 4.956357751793045: 1, 4.947441075886274: 1, 4.943205614667833: 1, 4.933753472402509: 1, 4.931225427398493: 1, 4.928550638988827: 1, 4.927113792800841: 1, 4.91733893051554: 1, 4.917122093354566: 1, 4.917032626601216: 1, 4.913767303758198: 1, 4.9039860524150045: 1, 4.887084957995465: 1, 4.88483543138028: 1, 4.872669082746321: 1, 4.869824160228869: 1, 4.864982153505666: 1, 4.854808686137671: 1, 4.849661365218654: 1, 4.845535333625861: 1, 4.825729629245906: 1, 4.823462515292019: 1, 4.8219206503928564: 1, 4.8174984512203824: 1, 4.816392521866096: 1, 4.782866703620855: 1, 4.757002836499122: 1, 4.756123693072724: 1, 4.753319817188863: 1, 4.746165543033311: 1, 4.734292525595347: 1, 4.726582579759693: 1, 4.695877305893531: 1, 4.685305779809263: 1, 4.680365433860532: 1, 4.647007274236639: 1, 4.6444709026845485: 1, 4.635415158105863: 1, 4.619312919645342: 1, 4.607557761273704: 1, 4.604509733418048: 1, 4.600238169416788: 1, 4.598436492680992: 1, 4.5732919389248705: 1, 4.571330282136031: 1, 4.565010212298447: 1, 4.555491856183624: 1, 4.551088090539786: 1, 4.548477544239138: 1, 4.543184294199249: 1, 4.535447112795966: 1, 4.518493075417924: 1, 4.5153290986968395: 1, 4.4940432038327796: 1, 4.462072101588485: 1, 4.461200192962852: 1, 4.449433652307763: 1, 4.444027244033381: 1, 4.431039310076877: 1, 4.430906745850794: 1, 4.421386400673833: 1, 4.410842666696185: 1, 4.405398832855188: 1, 4.400360956619652: 1, 4.385835960156051: 1, 4.328612157448127: 1, 4.321598693166106: 1, 4.250572851375887: 1, 4.246931702084149: 1, 4.206497274549884: 1, 4.153360842871679: 1, 3.9934166423409114: 1})
    
    In [108]:
    def get_intersec_text(df):
        df_text_vec = TfidfVectorizer(min_df=3,max_features=1000)
        df_text_fea = df_text_vec.fit_transform(df['TEXT'])
        df_text_features = df_text_vec.get_feature_names()
    
        df_text_fea_counts = df_text_fea.sum(axis=0).A1
        df_text_fea_dict = dict(zip(list(df_text_features),df_text_fea_counts))
        len1 = len(set(df_text_features))
        len2 = len(set(train_text_features) & set(df_text_features))
        return len1,len2
    
    In [109]:
    # this function will be used just for naive bayes
    # for the given indices, we will print the name of the features
    # and we will check whether the feature present in the test point text or not
    def get_impfeature_names(indices, text, gene, var, no_features):
        gene_count_vec = TfidfVectorizer()
        var_count_vec = TfidfVectorizer()
        text_count_vec = TfidfVectorizer(min_df=3,max_features=1000)
        
        gene_vec = gene_count_vec.fit(train_df['Gene'])
        var_vec  = var_count_vec.fit(train_df['Variation'])
        text_vec = text_count_vec.fit(train_df['TEXT'])
        
        fea1_len = len(gene_vec.get_feature_names())
        fea2_len = len(var_count_vec.get_feature_names())
        
        word_present = 0
        for i,v in enumerate(indices):
            if (v < fea1_len):
                word = gene_vec.get_feature_names()[v]
                yes_no = True if word == gene else False
                if yes_no:
                    word_present += 1
                    print(i, "Gene feature [{}] present in test data point [{}]".format(word,yes_no))
            elif (v < fea1_len+fea2_len):
                word = var_vec.get_feature_names()[v-(fea1_len)]
                yes_no = True if word == var else False
                if yes_no:
                    word_present += 1
                    print(i, "variation feature [{}] present in test data point [{}]".format(word,yes_no))
            else:
                word = text_vec.get_feature_names()[v-(fea1_len+fea2_len)]
                yes_no = True if word in text.split() else False
                if yes_no:
                    word_present += 1
                    print(i, "Text feature [{}] present in test data point [{}]".format(word,yes_no))
    
        print("Out of the top ",no_features," features ", word_present, "are present in query point")
    
    In [300]:
    # Train a Logistic regression+Calibration model using text features whicha re on-hot encoded
    alpha = [10 ** x for x in range(-5, 1)]
    
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    
    cv_log_error_array=[]
    for i in alpha:
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_text_feature_onehotCoding, y_train)
        
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_text_feature_onehotCoding, y_train)
        predict_y = sig_clf.predict_proba(cv_text_feature_onehotCoding)
        cv_log_error_array.append(log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
        print('For values of alpha = ', i, "The log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],np.round(txt,3)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_text_feature_onehotCoding, y_train)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_text_feature_onehotCoding, y_train)
    
    predict_y = sig_clf.predict_proba(train_text_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_text_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_text_feature_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    For values of alpha =  1e-05 The log loss is: 1.1427920832332985
    For values of alpha =  0.0001 The log loss is: 1.1095740275678843
    For values of alpha =  0.001 The log loss is: 1.3806565458954045
    For values of alpha =  0.01 The log loss is: 1.9021220692415444
    For values of alpha =  0.1 The log loss is: 2.0186784949605423
    For values of alpha =  1 The log loss is: 2.0067537257824486
    
    For values of best alpha =  0.0001 The train log loss is: 0.8252443509688081
    For values of best alpha =  0.0001 The cross validation log loss is: 1.1095740275678843
    For values of best alpha =  0.0001 The test log loss is: 1.0929255189849807
    
    In [301]:
    len1,len2 = get_intersec_text(test_df)
    print(np.round((len2/len1)*100, 3), "% of word of test data appeared in train data")
    len1,len2 = get_intersec_text(cv_df)
    print(np.round((len2/len1)*100, 3), "% of word of Cross Validation appeared in train data")
    
    94.0 % of word of test data appeared in train data
    94.1 % of word of Cross Validation appeared in train data
    

    Stacking the three types of features

    In [302]:
    # merging gene, variance and text features
    
    # building train, test and cross validation data sets
    # a = [[1, 2], 
    #      [3, 4]]
    # b = [[4, 5], 
    #      [6, 7]]
    # hstack(a, b) = [[1, 2, 4, 5],
    #                [ 3, 4, 6, 7]]
    
    train_gene_var_onehotCoding = hstack((train_gene_feature_onehotCoding,train_variation_feature_onehotCoding))
    test_gene_var_onehotCoding = hstack((test_gene_feature_onehotCoding,test_variation_feature_onehotCoding))
    cv_gene_var_onehotCoding = hstack((cv_gene_feature_onehotCoding,cv_variation_feature_onehotCoding))
    
    train_x_onehotCoding = hstack((train_gene_var_onehotCoding, train_text_feature_onehotCoding)).tocsr()
    train_y = np.array(list(train_df['Class']))
    
    test_x_onehotCoding = hstack((test_gene_var_onehotCoding, test_text_feature_onehotCoding)).tocsr()
    test_y = np.array(list(test_df['Class']))
    
    cv_x_onehotCoding = hstack((cv_gene_var_onehotCoding, cv_text_feature_onehotCoding)).tocsr()
    cv_y = np.array(list(cv_df['Class']))
    
    
    train_gene_var_responseCoding = np.hstack((train_gene_feature_responseCoding,train_variation_feature_responseCoding))
    test_gene_var_responseCoding = np.hstack((test_gene_feature_responseCoding,test_variation_feature_responseCoding))
    cv_gene_var_responseCoding = np.hstack((cv_gene_feature_responseCoding,cv_variation_feature_responseCoding))
    
    train_x_responseCoding = np.hstack((train_gene_var_responseCoding, train_text_feature_responseCoding))
    test_x_responseCoding = np.hstack((test_gene_var_responseCoding, test_text_feature_responseCoding))
    cv_x_responseCoding = np.hstack((cv_gene_var_responseCoding, cv_text_feature_responseCoding))
    
    In [303]:
    print("One hot encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_onehotCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_onehotCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_onehotCoding.shape)
    
    One hot encoding features :
    (number of data points * number of features) in train data =  (2124, 3186)
    (number of data points * number of features) in test data =  (665, 3186)
    (number of data points * number of features) in cross validation data = (532, 3186)
    
    In [304]:
    print(" Response encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_responseCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_responseCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_responseCoding.shape)
    
     Response encoding features :
    (number of data points * number of features) in train data =  (2124, 27)
    (number of data points * number of features) in test data =  (665, 27)
    (number of data points * number of features) in cross validation data = (532, 27)
    

    4.1. Base Line Model

    4.1.1. Naive Bayes

    4.1.1.1. Hyper parameter tuning

    In [305]:
    # find more about Multinomial Naive base function here http://scikit-learn.org/stable/modules/generated/sklearn.naive_bayes.MultinomialNB.html
    # -------------------------
    # default paramters
    # sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
    
    # some of methods of MultinomialNB()
    # fit(X, y[, sample_weight])	Fit Naive Bayes classifier according to X, y
    # predict(X)	Perform classification on an array of test vectors X.
    # predict_log_proba(X)	Return log-probability estimates for the test vector X.
    # -----------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    # ----------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    alpha = [0.00001, 0.0001, 0.001, 0.1, 1, 10, 100,1000]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = MultinomialNB(alpha=i)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(np.log10(alpha), cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (np.log10(alpha[i]),cv_log_error_array[i]))
    plt.grid()
    plt.xticks(np.log10(alpha))
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = MultinomialNB(alpha=alpha[best_alpha])
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    nb_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    nb_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    nb_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 1e-05
    Log Loss : 1.1881136351981785
    for alpha = 0.0001
    Log Loss : 1.1881089730116194
    for alpha = 0.001
    Log Loss : 1.1872495687422477
    for alpha = 0.1
    Log Loss : 1.2257461540404357
    for alpha = 1
    Log Loss : 1.3068371515264645
    for alpha = 10
    Log Loss : 1.489242967454851
    for alpha = 100
    Log Loss : 1.4468729530575677
    for alpha = 1000
    Log Loss : 1.430904045903737
    
    For values of best alpha =  0.001 The train log loss is: 0.507287200078767
    For values of best alpha =  0.001 The cross validation log loss is: 1.1872495687422477
    For values of best alpha =  0.001 The test log loss is: 1.1608803949276791
    

    4.1.1.2. Testing the model with best hyper paramters

    In [306]:
    # find more about Multinomial Naive base function here http://scikit-learn.org/stable/modules/generated/sklearn.naive_bayes.MultinomialNB.html
    # -------------------------
    # default paramters
    # sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
    
    # some of methods of MultinomialNB()
    # fit(X, y[, sample_weight])	Fit Naive Bayes classifier according to X, y
    # predict(X)	Perform classification on an array of test vectors X.
    # predict_log_proba(X)	Return log-probability estimates for the test vector X.
    # -----------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    # ----------------------------
    
    clf = MultinomialNB(alpha=alpha[best_alpha])
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
    # to avoid rounding error while multiplying probabilites we use log-probability estimates
    print("Log Loss :",log_loss(cv_y, sig_clf_probs))
    print("Number of missclassified point :", np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])
    plot_confusion_matrix(cv_y, sig_clf.predict(cv_x_onehotCoding.toarray()))
    
    # Variables that will be used in the end to make comparison table of models
    nb_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log Loss : 1.1872495687422477
    Number of missclassified point : 0.39285714285714285
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.1.1.3. Feature Importance, Correctly classified point

    In [307]:
    test_point_index = 1
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 1
    Predicted Class Probabilities: [[0.6235 0.043  0.0136 0.1235 0.0473 0.0449 0.0979 0.0029 0.0033]]
    Actual Class : 6
    --------------------------------------------------
    9 Text feature [one] present in test data point [True]
    12 Text feature [function] present in test data point [True]
    13 Text feature [results] present in test data point [True]
    14 Text feature [protein] present in test data point [True]
    15 Text feature [role] present in test data point [True]
    16 Text feature [loss] present in test data point [True]
    17 Text feature [two] present in test data point [True]
    18 Text feature [also] present in test data point [True]
    19 Text feature [table] present in test data point [True]
    20 Text feature [type] present in test data point [True]
    21 Text feature [region] present in test data point [True]
    22 Text feature [possible] present in test data point [True]
    24 Text feature [however] present in test data point [True]
    25 Text feature [may] present in test data point [True]
    26 Text feature [gene] present in test data point [True]
    27 Text feature [human] present in test data point [True]
    30 Text feature [determined] present in test data point [True]
    31 Text feature [functions] present in test data point [True]
    33 Text feature [binding] present in test data point [True]
    34 Text feature [likely] present in test data point [True]
    35 Text feature [using] present in test data point [True]
    36 Text feature [three] present in test data point [True]
    37 Text feature [including] present in test data point [True]
    38 Text feature [either] present in test data point [True]
    40 Text feature [analysis] present in test data point [True]
    41 Text feature [25] present in test data point [True]
    42 Text feature [whether] present in test data point [True]
    43 Text feature [cancer] present in test data point [True]
    44 Text feature [affect] present in test data point [True]
    45 Text feature [suggest] present in test data point [True]
    46 Text feature [wild] present in test data point [True]
    48 Text feature [well] present in test data point [True]
    49 Text feature [30] present in test data point [True]
    50 Text feature [although] present in test data point [True]
    52 Text feature [important] present in test data point [True]
    54 Text feature [defined] present in test data point [True]
    56 Text feature [discussion] present in test data point [True]
    57 Text feature [least] present in test data point [True]
    58 Text feature [data] present in test data point [True]
    59 Text feature [four] present in test data point [True]
    60 Text feature [large] present in test data point [True]
    61 Text feature [used] present in test data point [True]
    63 Text feature [specific] present in test data point [True]
    64 Text feature [based] present in test data point [True]
    65 Text feature [another] present in test data point [True]
    66 Text feature [shown] present in test data point [True]
    67 Text feature [expression] present in test data point [True]
    68 Text feature [observed] present in test data point [True]
    69 Text feature [identify] present in test data point [True]
    70 Text feature [studies] present in test data point [True]
    71 Text feature [performed] present in test data point [True]
    72 Text feature [many] present in test data point [True]
    73 Text feature [mutations] present in test data point [True]
    74 Text feature [previous] present in test data point [True]
    75 Text feature [different] present in test data point [True]
    76 Text feature [remaining] present in test data point [True]
    77 Text feature [dna] present in test data point [True]
    78 Text feature [domains] present in test data point [True]
    79 Text feature [containing] present in test data point [True]
    80 Text feature [first] present in test data point [True]
    81 Text feature [genes] present in test data point [True]
    82 Text feature [involved] present in test data point [True]
    83 Text feature [multiple] present in test data point [True]
    85 Text feature [15] present in test data point [True]
    86 Text feature [sequence] present in test data point [True]
    87 Text feature [whereas] present in test data point [True]
    88 Text feature [effect] present in test data point [True]
    89 Text feature [directly] present in test data point [True]
    90 Text feature [majority] present in test data point [True]
    91 Text feature [similar] present in test data point [True]
    92 Text feature [essential] present in test data point [True]
    93 Text feature [addition] present in test data point [True]
    94 Text feature [transcriptional] present in test data point [True]
    95 Text feature [several] present in test data point [True]
    96 Text feature [highly] present in test data point [True]
    97 Text feature [cell] present in test data point [True]
    98 Text feature [furthermore] present in test data point [True]
    99 Text feature [described] present in test data point [True]
    Out of the top  100  features  78 are present in query point
    

    4.1.1.4. Feature Importance, Incorrectly classified point

    In [309]:
    test_point_index = 100
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[0.0576 0.1227 0.0127 0.0632 0.0386 0.0368 0.6626 0.0027 0.0032]]
    Actual Class : 5
    --------------------------------------------------
    16 Text feature [activation] present in test data point [True]
    18 Text feature [activated] present in test data point [True]
    19 Text feature [kinase] present in test data point [True]
    20 Text feature [cells] present in test data point [True]
    22 Text feature [inhibitor] present in test data point [True]
    23 Text feature [downstream] present in test data point [True]
    24 Text feature [expressing] present in test data point [True]
    25 Text feature [signaling] present in test data point [True]
    26 Text feature [presence] present in test data point [True]
    27 Text feature [contrast] present in test data point [True]
    28 Text feature [independent] present in test data point [True]
    29 Text feature [growth] present in test data point [True]
    30 Text feature [also] present in test data point [True]
    31 Text feature [factor] present in test data point [True]
    32 Text feature [10] present in test data point [True]
    33 Text feature [addition] present in test data point [True]
    36 Text feature [treatment] present in test data point [True]
    37 Text feature [compared] present in test data point [True]
    38 Text feature [however] present in test data point [True]
    39 Text feature [sensitive] present in test data point [True]
    40 Text feature [shown] present in test data point [True]
    41 Text feature [treated] present in test data point [True]
    42 Text feature [similar] present in test data point [True]
    43 Text feature [constitutive] present in test data point [True]
    44 Text feature [well] present in test data point [True]
    45 Text feature [previously] present in test data point [True]
    46 Text feature [increased] present in test data point [True]
    47 Text feature [cell] present in test data point [True]
    48 Text feature [inhibitors] present in test data point [True]
    49 Text feature [mutations] present in test data point [True]
    50 Text feature [higher] present in test data point [True]
    51 Text feature [activating] present in test data point [True]
    52 Text feature [inhibition] present in test data point [True]
    53 Text feature [suggest] present in test data point [True]
    54 Text feature [tyrosine] present in test data point [True]
    55 Text feature [total] present in test data point [True]
    56 Text feature [potential] present in test data point [True]
    57 Text feature [recently] present in test data point [True]
    58 Text feature [activate] present in test data point [True]
    59 Text feature [showed] present in test data point [True]
    60 Text feature [phosphorylation] present in test data point [True]
    61 Text feature [pathways] present in test data point [True]
    64 Text feature [found] present in test data point [True]
    65 Text feature [mutant] present in test data point [True]
    66 Text feature [may] present in test data point [True]
    67 Text feature [absence] present in test data point [True]
    68 Text feature [oncogenic] present in test data point [True]
    69 Text feature [obtained] present in test data point [True]
    70 Text feature [fig] present in test data point [True]
    71 Text feature [using] present in test data point [True]
    72 Text feature [described] present in test data point [True]
    73 Text feature [proliferation] present in test data point [True]
    74 Text feature [without] present in test data point [True]
    75 Text feature [although] present in test data point [True]
    76 Text feature [20] present in test data point [True]
    78 Text feature [12] present in test data point [True]
    79 Text feature [increase] present in test data point [True]
    81 Text feature [results] present in test data point [True]
    82 Text feature [3b] present in test data point [True]
    83 Text feature [effective] present in test data point [True]
    84 Text feature [therapeutic] present in test data point [True]
    85 Text feature [mutation] present in test data point [True]
    86 Text feature [observed] present in test data point [True]
    89 Text feature [including] present in test data point [True]
    90 Text feature [phospho] present in test data point [True]
    91 Text feature [study] present in test data point [True]
    92 Text feature [3a] present in test data point [True]
    93 Text feature [identified] present in test data point [True]
    94 Text feature [reported] present in test data point [True]
    96 Text feature [studies] present in test data point [True]
    97 Text feature [expressed] present in test data point [True]
    98 Text feature [pathway] present in test data point [True]
    99 Text feature [consistent] present in test data point [True]
    Out of the top  100  features  73 are present in query point
    

    4.2. K Nearest Neighbour Classification

    In [310]:
    # find more about KNeighborsClassifier() here http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html
    # -------------------------
    # default parameter
    # KNeighborsClassifier(n_neighbors=5, weights=’uniform’, algorithm=’auto’, leaf_size=30, p=2, 
    # metric=’minkowski’, metric_params=None, n_jobs=1, **kwargs)
    
    # methods of
    # fit(X, y) : Fit the model using X as training data and y as target values
    # predict(X):Predict the class labels for the provided data
    # predict_proba(X):Return probability estimates for the test data X.
    #-------------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/k-nearest-neighbors-geometric-intuition-with-a-toy-example-1/
    #-------------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    
    alpha = [5, 11, 15, 21, 31, 41, 51, 99]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = KNeighborsClassifier(n_neighbors=i)
        clf.fit(train_x_responseCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_responseCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_responseCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_responseCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_responseCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_responseCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    knn_train = log_loss(y_train, sig_clf.predict_proba(train_x_responseCoding), labels=clf.classes_, eps=1e-15)
    knn_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_responseCoding), labels=clf.classes_, eps=1e-15)
    knn_test = log_loss(y_test, sig_clf.predict_proba(test_x_responseCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 5
    Log Loss : 1.0623805615343493
    for alpha = 11
    Log Loss : 1.0444452750986575
    for alpha = 15
    Log Loss : 1.0667705679076356
    for alpha = 21
    Log Loss : 1.0485047777307632
    for alpha = 31
    Log Loss : 1.0587909760517968
    for alpha = 41
    Log Loss : 1.0611629992233091
    for alpha = 51
    Log Loss : 1.0630889689067622
    for alpha = 99
    Log Loss : 1.071484468392315
    
    For values of best alpha =  11 The train log loss is: 0.6312205358693138
    For values of best alpha =  11 The cross validation log loss is: 1.0444452750986575
    For values of best alpha =  11 The test log loss is: 1.0135835455369469
    

    4.2.2. Testing the model with best hyper paramters

    In [311]:
    # find more about KNeighborsClassifier() here http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html
    # -------------------------
    # default parameter
    # KNeighborsClassifier(n_neighbors=5, weights=’uniform’, algorithm=’auto’, leaf_size=30, p=2, 
    # metric=’minkowski’, metric_params=None, n_jobs=1, **kwargs)
    
    # methods of
    # fit(X, y) : Fit the model using X as training data and y as target values
    # predict(X):Predict the class labels for the provided data
    # predict_proba(X):Return probability estimates for the test data X.
    #-------------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/k-nearest-neighbors-geometric-intuition-with-a-toy-example-1/
    #-------------------------------------
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    predict_and_plot_confusion_matrix(train_x_responseCoding, train_y, cv_x_responseCoding, cv_y, clf)
    
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    knn_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_responseCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.0444452750986575
    Number of mis-classified points : 0.3533834586466165
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.2.3.Sample Query point -1

    In [312]:
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    test_point_index = 1
    predicted_cls = sig_clf.predict(test_x_responseCoding[0].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Actual Class :", test_y[test_point_index])
    neighbors = clf.kneighbors(test_x_responseCoding[test_point_index].reshape(1, -1), alpha[best_alpha])
    print("The ",alpha[best_alpha]," nearest neighbours of the test points belongs to classes",train_y[neighbors[1][0]])
    print("Fequency of nearest points :",Counter(train_y[neighbors[1][0]]))
    
    Predicted Class : 7
    Actual Class : 6
    The  11  nearest neighbours of the test points belongs to classes [1 6 6 5 1 1 1 5 1 1 1]
    Fequency of nearest points : Counter({1: 7, 6: 2, 5: 2})
    

    4.2.4. Sample Query Point-2

    In [313]:
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    test_point_index = 100
    
    predicted_cls = sig_clf.predict(test_x_responseCoding[test_point_index].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Actual Class :", test_y[test_point_index])
    neighbors = clf.kneighbors(test_x_responseCoding[test_point_index].reshape(1, -1), alpha[best_alpha])
    print("the k value for knn is",alpha[best_alpha],"and the nearest neighbours of the test points belongs to classes",train_y[neighbors[1][0]])
    print("Fequency of nearest points :",Counter(train_y[neighbors[1][0]]))
    
    Predicted Class : 7
    Actual Class : 5
    the k value for knn is 11 and the nearest neighbours of the test points belongs to classes [5 7 7 2 2 2 7 4 7 2 4]
    Fequency of nearest points : Counter({7: 4, 2: 4, 4: 2, 5: 1})
    

    4.3. Logistic Regression

    4.3.1. With Class balancing

    4.3.1.1. Hyper paramter tuning

    In [314]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(class_weight='balanced', alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_balance_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 1e-06
    Log Loss : 1.152433630179926
    for alpha = 1e-05
    Log Loss : 1.0596541833098543
    for alpha = 0.0001
    Log Loss : 0.9853486903200103
    for alpha = 0.001
    Log Loss : 1.002366657267458
    for alpha = 0.01
    Log Loss : 1.1912926322909771
    for alpha = 0.1
    Log Loss : 1.6065582785894972
    for alpha = 1
    Log Loss : 1.7718690918030942
    for alpha = 10
    Log Loss : 1.7908288910423278
    for alpha = 100
    Log Loss : 1.7930810461607123
    
    For values of best alpha =  0.0001 The train log loss is: 0.43498498876120123
    For values of best alpha =  0.0001 The cross validation log loss is: 0.9853486903200103
    For values of best alpha =  0.0001 The test log loss is: 0.9833393189312338
    
    In [315]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_balance_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 0.9853486903200103
    Number of mis-classified points : 0.3609022556390977
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.3.1.3. Feature Importance

    4.3.1.3.1. Correctly Classified point
    In [316]:
    # from tabulate import tabulate
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 1
    Predicted Class Probabilities: [[0.5314 0.0148 0.0115 0.1014 0.1341 0.1663 0.0315 0.0042 0.0048]]
    Actual Class : 6
    --------------------------------------------------
    39 Text feature [surface] present in test data point [True]
    83 Text feature [panel] present in test data point [True]
    113 Text feature [hydrophobic] present in test data point [True]
    158 Text feature [nucleus] present in test data point [True]
    213 Text feature [defined] present in test data point [True]
    217 Text feature [region] present in test data point [True]
    227 Text feature [mutational] present in test data point [True]
    235 Text feature [identify] present in test data point [True]
    237 Text feature [function] present in test data point [True]
    255 Text feature [21] present in test data point [True]
    257 Text feature [structure] present in test data point [True]
    275 Text feature [transcriptional] present in test data point [True]
    288 Text feature [peptide] present in test data point [True]
    289 Text feature [fraction] present in test data point [True]
    292 Text feature [individual] present in test data point [True]
    294 Text feature [position] present in test data point [True]
    296 Text feature [calculated] present in test data point [True]
    297 Text feature [molecules] present in test data point [True]
    298 Text feature [essential] present in test data point [True]
    299 Text feature [page] present in test data point [True]
    301 Text feature [possible] present in test data point [True]
    304 Text feature [corresponding] present in test data point [True]
    306 Text feature [side] present in test data point [True]
    310 Text feature [structural] present in test data point [True]
    312 Text feature [conserved] present in test data point [True]
    320 Text feature [domains] present in test data point [True]
    325 Text feature [driven] present in test data point [True]
    327 Text feature [functions] present in test data point [True]
    333 Text feature [sequencing] present in test data point [True]
    334 Text feature [pocket] present in test data point [True]
    338 Text feature [construct] present in test data point [True]
    340 Text feature [previous] present in test data point [True]
    343 Text feature [one] present in test data point [True]
    352 Text feature [1997] present in test data point [True]
    353 Text feature [greater] present in test data point [True]
    354 Text feature [complexes] present in test data point [True]
    357 Text feature [colorectal] present in test data point [True]
    361 Text feature [affect] present in test data point [True]
    362 Text feature [smad3] present in test data point [True]
    363 Text feature [gel] present in test data point [True]
    368 Text feature [crystal] present in test data point [True]
    370 Text feature [moreover] present in test data point [True]
    373 Text feature [loss] present in test data point [True]
    375 Text feature [2001] present in test data point [True]
    377 Text feature [table] present in test data point [True]
    392 Text feature [revealed] present in test data point [True]
    396 Text feature [general] present in test data point [True]
    399 Text feature [residues] present in test data point [True]
    401 Text feature [breast] present in test data point [True]
    403 Text feature [yet] present in test data point [True]
    409 Text feature [gst] present in test data point [True]
    411 Text feature [hr] present in test data point [True]
    413 Text feature [analyzed] present in test data point [True]
    415 Text feature [staining] present in test data point [True]
    417 Text feature [upon] present in test data point [True]
    419 Text feature [signal] present in test data point [True]
    422 Text feature [change] present in test data point [True]
    423 Text feature [chain] present in test data point [True]
    424 Text feature [furthermore] present in test data point [True]
    427 Text feature [interestingly] present in test data point [True]
    428 Text feature [negative] present in test data point [True]
    430 Text feature [another] present in test data point [True]
    438 Text feature [remaining] present in test data point [True]
    441 Text feature [17] present in test data point [True]
    443 Text feature [interactions] present in test data point [True]
    445 Text feature [binding] present in test data point [True]
    446 Text feature [transcription] present in test data point [True]
    448 Text feature [confirmed] present in test data point [True]
    449 Text feature [ability] present in test data point [True]
    456 Text feature [related] present in test data point [True]
    461 Text feature [sequences] present in test data point [True]
    465 Text feature [key] present in test data point [True]
    468 Text feature [regulatory] present in test data point [True]
    470 Text feature [1b] present in test data point [True]
    471 Text feature [molecule] present in test data point [True]
    473 Text feature [values] present in test data point [True]
    474 Text feature [five] present in test data point [True]
    477 Text feature [unknown] present in test data point [True]
    478 Text feature [assess] present in test data point [True]
    483 Text feature [protein] present in test data point [True]
    484 Text feature [obtained] present in test data point [True]
    485 Text feature [reported] present in test data point [True]
    487 Text feature [set] present in test data point [True]
    489 Text feature [strongly] present in test data point [True]
    490 Text feature [cell] present in test data point [True]
    495 Text feature [end] present in test data point [True]
    497 Text feature [complex] present in test data point [True]
    498 Text feature [criteria] present in test data point [True]
    Out of the top  500  features  88 are present in query point
    

    4.3.1.3.2. Incorrectly Classified point

    In [318]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[4.490e-02 9.860e-02 1.600e-03 4.620e-02 6.040e-02 1.590e-02 7.301e-01
      1.900e-03 5.000e-04]]
    Actual Class : 5
    --------------------------------------------------
    10 Text feature [activation] present in test data point [True]
    19 Text feature [constitutive] present in test data point [True]
    23 Text feature [transformed] present in test data point [True]
    26 Text feature [activated] present in test data point [True]
    29 Text feature [activate] present in test data point [True]
    32 Text feature [oncogene] present in test data point [True]
    34 Text feature [downstream] present in test data point [True]
    43 Text feature [pathways] present in test data point [True]
    50 Text feature [insertion] present in test data point [True]
    53 Text feature [codon] present in test data point [True]
    54 Text feature [3b] present in test data point [True]
    65 Text feature [colony] present in test data point [True]
    68 Text feature [presence] present in test data point [True]
    81 Text feature [raf] present in test data point [True]
    82 Text feature [signaling] present in test data point [True]
    86 Text feature [expressing] present in test data point [True]
    89 Text feature [derived] present in test data point [True]
    98 Text feature [phospho] present in test data point [True]
    104 Text feature [factor] present in test data point [True]
    114 Text feature [lesions] present in test data point [True]
    138 Text feature [s3] present in test data point [True]
    146 Text feature [transformation] present in test data point [True]
    157 Text feature [leading] present in test data point [True]
    161 Text feature [combination] present in test data point [True]
    163 Text feature [transforming] present in test data point [True]
    165 Text feature [inhibited] present in test data point [True]
    168 Text feature [2a] present in test data point [True]
    174 Text feature [sensitive] present in test data point [True]
    177 Text feature [2b] present in test data point [True]
    187 Text feature [gefitinib] present in test data point [True]
    190 Text feature [leukemia] present in test data point [True]
    210 Text feature [conditions] present in test data point [True]
    213 Text feature [effective] present in test data point [True]
    229 Text feature [positive] present in test data point [True]
    237 Text feature [observations] present in test data point [True]
    240 Text feature [advanced] present in test data point [True]
    258 Text feature [000] present in test data point [True]
    271 Text feature [per] present in test data point [True]
    273 Text feature [versus] present in test data point [True]
    279 Text feature [erlotinib] present in test data point [True]
    282 Text feature [increase] present in test data point [True]
    284 Text feature [product] present in test data point [True]
    288 Text feature [promote] present in test data point [True]
    304 Text feature [increased] present in test data point [True]
    308 Text feature [factors] present in test data point [True]
    313 Text feature [3t3] present in test data point [True]
    322 Text feature [approximately] present in test data point [True]
    326 Text feature [high] present in test data point [True]
    333 Text feature [ba] present in test data point [True]
    344 Text feature [lead] present in test data point [True]
    345 Text feature [her2] present in test data point [True]
    348 Text feature [exhibited] present in test data point [True]
    349 Text feature [f3] present in test data point [True]
    351 Text feature [3a] present in test data point [True]
    369 Text feature [tyrosine] present in test data point [True]
    388 Text feature [tissues] present in test data point [True]
    393 Text feature [fig] present in test data point [True]
    400 Text feature [adenocarcinoma] present in test data point [True]
    403 Text feature [cyclin] present in test data point [True]
    409 Text feature [cdk4] present in test data point [True]
    410 Text feature [lung] present in test data point [True]
    423 Text feature [oncogenic] present in test data point [True]
    425 Text feature [ras] present in test data point [True]
    453 Text feature [fold] present in test data point [True]
    454 Text feature [promoter] present in test data point [True]
    461 Text feature [occur] present in test data point [True]
    462 Text feature [total] present in test data point [True]
    466 Text feature [standard] present in test data point [True]
    470 Text feature [akt] present in test data point [True]
    475 Text feature [inhibitor] present in test data point [True]
    484 Text feature [addition] present in test data point [True]
    490 Text feature [provided] present in test data point [True]
    Out of the top  500  features  72 are present in query point
    

    4.3.2. Without Class balancing

    4.3.2.1. Hyper paramter tuning

    In [319]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 1)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 1e-06
    Log Loss : 1.1333765814986874
    for alpha = 1e-05
    Log Loss : 1.125334580204084
    for alpha = 0.0001
    Log Loss : 1.0185430453197877
    for alpha = 0.001
    Log Loss : 1.061076983874229
    for alpha = 0.01
    Log Loss : 1.322970521049101
    for alpha = 0.1
    Log Loss : 1.6897383787086464
    for alpha = 1
    Log Loss : 1.786066451634542
    
    For values of best alpha =  0.0001 The train log loss is: 0.4284463704490417
    For values of best alpha =  0.0001 The cross validation log loss is: 1.0185430453197877
    For values of best alpha =  0.0001 The test log loss is: 1.0086883905938648
    
    4.3.2.2. Testing model with best hyper parameters
    In [320]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.0185430453197877
    Number of mis-classified points : 0.35150375939849626
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.3.2.3. Feature Importance, Correctly Classified point

    In [321]:
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 1
    Predicted Class Probabilities: [[0.5416 0.015  0.0089 0.1117 0.1246 0.1569 0.0364 0.0028 0.0021]]
    Actual Class : 6
    --------------------------------------------------
    56 Text feature [surface] present in test data point [True]
    80 Text feature [panel] present in test data point [True]
    116 Text feature [hydrophobic] present in test data point [True]
    170 Text feature [nucleus] present in test data point [True]
    213 Text feature [21] present in test data point [True]
    220 Text feature [defined] present in test data point [True]
    222 Text feature [region] present in test data point [True]
    242 Text feature [function] present in test data point [True]
    243 Text feature [mutational] present in test data point [True]
    249 Text feature [identify] present in test data point [True]
    270 Text feature [structure] present in test data point [True]
    283 Text feature [fraction] present in test data point [True]
    286 Text feature [molecules] present in test data point [True]
    290 Text feature [peptide] present in test data point [True]
    291 Text feature [transcriptional] present in test data point [True]
    295 Text feature [essential] present in test data point [True]
    296 Text feature [position] present in test data point [True]
    298 Text feature [individual] present in test data point [True]
    299 Text feature [possible] present in test data point [True]
    300 Text feature [corresponding] present in test data point [True]
    302 Text feature [page] present in test data point [True]
    303 Text feature [side] present in test data point [True]
    307 Text feature [calculated] present in test data point [True]
    309 Text feature [conserved] present in test data point [True]
    315 Text feature [previous] present in test data point [True]
    321 Text feature [sequencing] present in test data point [True]
    322 Text feature [functions] present in test data point [True]
    325 Text feature [domains] present in test data point [True]
    329 Text feature [1997] present in test data point [True]
    331 Text feature [greater] present in test data point [True]
    333 Text feature [one] present in test data point [True]
    335 Text feature [driven] present in test data point [True]
    337 Text feature [structural] present in test data point [True]
    339 Text feature [pocket] present in test data point [True]
    342 Text feature [construct] present in test data point [True]
    347 Text feature [colorectal] present in test data point [True]
    351 Text feature [complexes] present in test data point [True]
    355 Text feature [smad3] present in test data point [True]
    359 Text feature [gel] present in test data point [True]
    360 Text feature [2001] present in test data point [True]
    363 Text feature [affect] present in test data point [True]
    368 Text feature [moreover] present in test data point [True]
    372 Text feature [crystal] present in test data point [True]
    373 Text feature [table] present in test data point [True]
    376 Text feature [loss] present in test data point [True]
    378 Text feature [general] present in test data point [True]
    379 Text feature [residues] present in test data point [True]
    380 Text feature [yet] present in test data point [True]
    384 Text feature [interestingly] present in test data point [True]
    386 Text feature [revealed] present in test data point [True]
    393 Text feature [breast] present in test data point [True]
    396 Text feature [analyzed] present in test data point [True]
    397 Text feature [signal] present in test data point [True]
    403 Text feature [gst] present in test data point [True]
    407 Text feature [upon] present in test data point [True]
    408 Text feature [staining] present in test data point [True]
    409 Text feature [another] present in test data point [True]
    410 Text feature [chain] present in test data point [True]
    416 Text feature [furthermore] present in test data point [True]
    419 Text feature [1b] present in test data point [True]
    422 Text feature [related] present in test data point [True]
    426 Text feature [hr] present in test data point [True]
    429 Text feature [confirmed] present in test data point [True]
    436 Text feature [change] present in test data point [True]
    438 Text feature [negative] present in test data point [True]
    445 Text feature [interactions] present in test data point [True]
    448 Text feature [17] present in test data point [True]
    453 Text feature [key] present in test data point [True]
    455 Text feature [ability] present in test data point [True]
    462 Text feature [values] present in test data point [True]
    463 Text feature [regulatory] present in test data point [True]
    466 Text feature [cell] present in test data point [True]
    467 Text feature [binding] present in test data point [True]
    471 Text feature [end] present in test data point [True]
    472 Text feature [sequences] present in test data point [True]
    473 Text feature [effect] present in test data point [True]
    474 Text feature [molecule] present in test data point [True]
    478 Text feature [transcription] present in test data point [True]
    479 Text feature [reported] present in test data point [True]
    480 Text feature [assess] present in test data point [True]
    481 Text feature [remaining] present in test data point [True]
    484 Text feature [obtained] present in test data point [True]
    486 Text feature [unknown] present in test data point [True]
    492 Text feature [set] present in test data point [True]
    494 Text feature [vitro] present in test data point [True]
    496 Text feature [strongly] present in test data point [True]
    497 Text feature [involved] present in test data point [True]
    Out of the top  500  features  87 are present in query point
    
    4.3.2.4. Feature Importance, Inorrectly Classified point
    In [322]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[4.200e-02 7.600e-02 8.000e-04 4.310e-02 3.630e-02 1.100e-02 7.906e-01
      1.000e-04 0.000e+00]]
    Actual Class : 5
    --------------------------------------------------
    18 Text feature [activation] present in test data point [True]
    38 Text feature [activate] present in test data point [True]
    42 Text feature [activated] present in test data point [True]
    43 Text feature [transformed] present in test data point [True]
    44 Text feature [downstream] present in test data point [True]
    49 Text feature [constitutive] present in test data point [True]
    50 Text feature [3b] present in test data point [True]
    55 Text feature [codon] present in test data point [True]
    60 Text feature [insertion] present in test data point [True]
    63 Text feature [oncogene] present in test data point [True]
    65 Text feature [pathways] present in test data point [True]
    82 Text feature [derived] present in test data point [True]
    93 Text feature [presence] present in test data point [True]
    101 Text feature [raf] present in test data point [True]
    104 Text feature [colony] present in test data point [True]
    107 Text feature [factor] present in test data point [True]
    129 Text feature [phospho] present in test data point [True]
    133 Text feature [signaling] present in test data point [True]
    135 Text feature [s3] present in test data point [True]
    163 Text feature [expressing] present in test data point [True]
    165 Text feature [lesions] present in test data point [True]
    206 Text feature [2b] present in test data point [True]
    211 Text feature [sensitive] present in test data point [True]
    213 Text feature [leading] present in test data point [True]
    218 Text feature [inhibited] present in test data point [True]
    224 Text feature [transformation] present in test data point [True]
    227 Text feature [observations] present in test data point [True]
    230 Text feature [2a] present in test data point [True]
    235 Text feature [gefitinib] present in test data point [True]
    242 Text feature [approximately] present in test data point [True]
    245 Text feature [effective] present in test data point [True]
    253 Text feature [positive] present in test data point [True]
    254 Text feature [combination] present in test data point [True]
    255 Text feature [advanced] present in test data point [True]
    266 Text feature [leukemia] present in test data point [True]
    273 Text feature [conditions] present in test data point [True]
    284 Text feature [transforming] present in test data point [True]
    291 Text feature [000] present in test data point [True]
    301 Text feature [product] present in test data point [True]
    309 Text feature [her2] present in test data point [True]
    317 Text feature [high] present in test data point [True]
    319 Text feature [versus] present in test data point [True]
    326 Text feature [lead] present in test data point [True]
    332 Text feature [factors] present in test data point [True]
    334 Text feature [increased] present in test data point [True]
    336 Text feature [increase] present in test data point [True]
    347 Text feature [3a] present in test data point [True]
    358 Text feature [fig] present in test data point [True]
    364 Text feature [ba] present in test data point [True]
    371 Text feature [exhibited] present in test data point [True]
    373 Text feature [per] present in test data point [True]
    378 Text feature [erlotinib] present in test data point [True]
    379 Text feature [lung] present in test data point [True]
    384 Text feature [f3] present in test data point [True]
    387 Text feature [total] present in test data point [True]
    404 Text feature [standard] present in test data point [True]
    426 Text feature [cdk4] present in test data point [True]
    431 Text feature [adenocarcinoma] present in test data point [True]
    449 Text feature [ras] present in test data point [True]
    452 Text feature [cyclin] present in test data point [True]
    459 Text feature [tissues] present in test data point [True]
    465 Text feature [addition] present in test data point [True]
    472 Text feature [promoter] present in test data point [True]
    478 Text feature [provided] present in test data point [True]
    482 Text feature [akt] present in test data point [True]
    485 Text feature [occur] present in test data point [True]
    486 Text feature [3t3] present in test data point [True]
    489 Text feature [fold] present in test data point [True]
    491 Text feature [made] present in test data point [True]
    493 Text feature [primer] present in test data point [True]
    499 Text feature [promote] present in test data point [True]
    Out of the top  500  features  71 are present in query point
    

    Linear Support Vector Machines

    Hyper paramter tuning

    In [323]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-5, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for C =", i)
    #     clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
        clf = SGDClassifier( class_weight='balanced', alpha=i, penalty='l2', loss='hinge', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    # clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    svm_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    svm_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    svm_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for C = 1e-05
    Log Loss : 1.0887857620080226
    for C = 0.0001
    Log Loss : 1.0502723113549248
    for C = 0.001
    Log Loss : 1.05277620601716
    for C = 0.01
    Log Loss : 1.3522973522117345
    for C = 0.1
    Log Loss : 1.6332199970062817
    for C = 1
    Log Loss : 1.793749394883818
    for C = 10
    Log Loss : 1.7937493064220016
    for C = 100
    Log Loss : 1.7937495369994643
    
    For values of best alpha =  0.0001 The train log loss is: 0.46407536688898027
    For values of best alpha =  0.0001 The cross validation log loss is: 1.0502723113549248
    For values of best alpha =  0.0001 The test log loss is: 1.0456982101442074
    

    Testing model with best hyper parameters

    In [324]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    # clf = SVC(C=alpha[best_alpha],kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42,class_weight='balanced')
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y,cv_x_onehotCoding,cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    svm_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.0502723113549248
    Number of mis-classified points : 0.36466165413533835
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.3.3. Feature Importance

    4.3.3.1. For Correctly classified point

    In [325]:
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    # test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 1
    Predicted Class Probabilities: [[0.4568 0.0758 0.0447 0.0414 0.1238 0.1681 0.0767 0.0049 0.0077]]
    Actual Class : 6
    --------------------------------------------------
    210 Text feature [21] present in test data point [True]
    211 Text feature [hydrophobic] present in test data point [True]
    213 Text feature [surface] present in test data point [True]
    214 Text feature [panel] present in test data point [True]
    222 Text feature [mutational] present in test data point [True]
    223 Text feature [defined] present in test data point [True]
    225 Text feature [molecules] present in test data point [True]
    226 Text feature [function] present in test data point [True]
    228 Text feature [driven] present in test data point [True]
    229 Text feature [identify] present in test data point [True]
    232 Text feature [previous] present in test data point [True]
    233 Text feature [nucleus] present in test data point [True]
    235 Text feature [essential] present in test data point [True]
    237 Text feature [position] present in test data point [True]
    238 Text feature [individual] present in test data point [True]
    242 Text feature [related] present in test data point [True]
    244 Text feature [colorectal] present in test data point [True]
    245 Text feature [page] present in test data point [True]
    246 Text feature [functions] present in test data point [True]
    247 Text feature [furthermore] present in test data point [True]
    248 Text feature [1997] present in test data point [True]
    252 Text feature [region] present in test data point [True]
    255 Text feature [transcriptional] present in test data point [True]
    258 Text feature [2001] present in test data point [True]
    259 Text feature [calculated] present in test data point [True]
    260 Text feature [corresponding] present in test data point [True]
    360 Text feature [structure] present in test data point [True]
    363 Text feature [yet] present in test data point [True]
    364 Text feature [peptide] present in test data point [True]
    366 Text feature [fraction] present in test data point [True]
    367 Text feature [tumor] present in test data point [True]
    368 Text feature [staining] present in test data point [True]
    372 Text feature [17] present in test data point [True]
    373 Text feature [side] present in test data point [True]
    374 Text feature [construct] present in test data point [True]
    375 Text feature [possible] present in test data point [True]
    376 Text feature [structural] present in test data point [True]
    377 Text feature [one] present in test data point [True]
    380 Text feature [interactions] present in test data point [True]
    383 Text feature [smad3] present in test data point [True]
    386 Text feature [revealed] present in test data point [True]
    389 Text feature [1b] present in test data point [True]
    391 Text feature [residues] present in test data point [True]
    393 Text feature [chain] present in test data point [True]
    395 Text feature [moreover] present in test data point [True]
    396 Text feature [interestingly] present in test data point [True]
    400 Text feature [hr] present in test data point [True]
    401 Text feature [table] present in test data point [True]
    402 Text feature [indicated] present in test data point [True]
    404 Text feature [confirmed] present in test data point [True]
    405 Text feature [complexes] present in test data point [True]
    407 Text feature [domains] present in test data point [True]
    409 Text feature [negative] present in test data point [True]
    413 Text feature [ability] present in test data point [True]
    414 Text feature [signal] present in test data point [True]
    418 Text feature [dependent] present in test data point [True]
    421 Text feature [pocket] present in test data point [True]
    424 Text feature [loss] present in test data point [True]
    425 Text feature [gst] present in test data point [True]
    427 Text feature [breast] present in test data point [True]
    428 Text feature [showing] present in test data point [True]
    430 Text feature [gel] present in test data point [True]
    431 Text feature [crystal] present in test data point [True]
    433 Text feature [reported] present in test data point [True]
    436 Text feature [effect] present in test data point [True]
    439 Text feature [upon] present in test data point [True]
    444 Text feature [vitro] present in test data point [True]
    445 Text feature [contact] present in test data point [True]
    448 Text feature [general] present in test data point [True]
    449 Text feature [sequences] present in test data point [True]
    450 Text feature [interaction] present in test data point [True]
    453 Text feature [values] present in test data point [True]
    454 Text feature [performed] present in test data point [True]
    456 Text feature [strong] present in test data point [True]
    457 Text feature [sequencing] present in test data point [True]
    464 Text feature [least] present in test data point [True]
    465 Text feature [al] present in test data point [True]
    466 Text feature [another] present in test data point [True]
    467 Text feature [molecule] present in test data point [True]
    468 Text feature [et] present in test data point [True]
    470 Text feature [conserved] present in test data point [True]
    473 Text feature [indeed] present in test data point [True]
    475 Text feature [obtained] present in test data point [True]
    476 Text feature [second] present in test data point [True]
    477 Text feature [carcinomas] present in test data point [True]
    479 Text feature [30] present in test data point [True]
    480 Text feature [greater] present in test data point [True]
    481 Text feature [lines] present in test data point [True]
    484 Text feature [assess] present in test data point [True]
    485 Text feature [end] present in test data point [True]
    490 Text feature [five] present in test data point [True]
    499 Text feature [complete] present in test data point [True]
    Out of the top  500  features  92 are present in query point
    

    4.3.3.2. For Incorrectly classified point

    In [326]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    get_impfeature_names(indices[0], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[1.252e-01 6.320e-02 1.300e-03 8.660e-02 8.020e-02 9.900e-03 6.320e-01
      6.000e-04 1.000e-03]]
    Actual Class : 5
    --------------------------------------------------
    33 Text feature [codon] present in test data point [True]
    40 Text feature [3b] present in test data point [True]
    42 Text feature [activate] present in test data point [True]
    43 Text feature [presence] present in test data point [True]
    44 Text feature [derived] present in test data point [True]
    45 Text feature [oncogene] present in test data point [True]
    48 Text feature [activation] present in test data point [True]
    49 Text feature [downstream] present in test data point [True]
    50 Text feature [transformed] present in test data point [True]
    52 Text feature [activated] present in test data point [True]
    229 Text feature [pathways] present in test data point [True]
    231 Text feature [insertion] present in test data point [True]
    235 Text feature [000] present in test data point [True]
    236 Text feature [colony] present in test data point [True]
    237 Text feature [product] present in test data point [True]
    238 Text feature [s3] present in test data point [True]
    239 Text feature [conditions] present in test data point [True]
    240 Text feature [leading] present in test data point [True]
    241 Text feature [raf] present in test data point [True]
    242 Text feature [lead] present in test data point [True]
    243 Text feature [2a] present in test data point [True]
    244 Text feature [2b] present in test data point [True]
    253 Text feature [approximately] present in test data point [True]
    255 Text feature [advanced] present in test data point [True]
    260 Text feature [factor] present in test data point [True]
    265 Text feature [expressing] present in test data point [True]
    266 Text feature [made] present in test data point [True]
    267 Text feature [provided] present in test data point [True]
    268 Text feature [constitutive] present in test data point [True]
    271 Text feature [ras] present in test data point [True]
    274 Text feature [interface] present in test data point [True]
    275 Text feature [sensitive] present in test data point [True]
    277 Text feature [f3] present in test data point [True]
    279 Text feature [ba] present in test data point [True]
    287 Text feature [observations] present in test data point [True]
    289 Text feature [examined] present in test data point [True]
    292 Text feature [confirm] present in test data point [True]
    293 Text feature [total] present in test data point [True]
    294 Text feature [standard] present in test data point [True]
    295 Text feature [positive] present in test data point [True]
    296 Text feature [signaling] present in test data point [True]
    297 Text feature [24] present in test data point [True]
    299 Text feature [mean] present in test data point [True]
    301 Text feature [like] present in test data point [True]
    303 Text feature [her2] present in test data point [True]
    305 Text feature [genomic] present in test data point [True]
    307 Text feature [effective] present in test data point [True]
    308 Text feature [inhibited] present in test data point [True]
    309 Text feature [high] present in test data point [True]
    315 Text feature [fig] present in test data point [True]
    317 Text feature [addition] present in test data point [True]
    318 Text feature [use] present in test data point [True]
    321 Text feature [phosphorylated] present in test data point [True]
    322 Text feature [exhibited] present in test data point [True]
    324 Text feature [promoter] present in test data point [True]
    326 Text feature [adenocarcinoma] present in test data point [True]
    327 Text feature [3a] present in test data point [True]
    328 Text feature [erlotinib] present in test data point [True]
    329 Text feature [transforming] present in test data point [True]
    330 Text feature [lesions] present in test data point [True]
    331 Text feature [factors] present in test data point [True]
    332 Text feature [leukemia] present in test data point [True]
    333 Text feature [25] present in test data point [True]
    334 Text feature [gefitinib] present in test data point [True]
    338 Text feature [lung] present in test data point [True]
    339 Text feature [egfr] present in test data point [True]
    340 Text feature [increase] present in test data point [True]
    342 Text feature [recently] present in test data point [True]
    345 Text feature [common] present in test data point [True]
    347 Text feature [increased] present in test data point [True]
    350 Text feature [manner] present in test data point [True]
    351 Text feature [formed] present in test data point [True]
    352 Text feature [note] present in test data point [True]
    353 Text feature [p110] present in test data point [True]
    354 Text feature [indicate] present in test data point [True]
    355 Text feature [prior] present in test data point [True]
    356 Text feature [cyclin] present in test data point [True]
    357 Text feature [versus] present in test data point [True]
    359 Text feature [led] present in test data point [True]
    360 Text feature [43] present in test data point [True]
    361 Text feature [consistent] present in test data point [True]
    362 Text feature [showed] present in test data point [True]
    363 Text feature [extracellular] present in test data point [True]
    Out of the top  500  features  83 are present in query point
    

    4.5 Random Forest Classifier

    4.5.1. Hyper paramter tuning

    In [327]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [100,200,500,1000,2000]
    max_depth = [5, 10]
    cv_log_error_array = []
    for i in alpha:
        for j in max_depth:
            print("for n_estimators =", i,"and max depth = ", j)
            clf = RandomForestClassifier(n_estimators=i, criterion='gini', max_depth=j, random_state=42, n_jobs=-1)
            clf.fit(train_x_onehotCoding, train_y)
            sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
            sig_clf.fit(train_x_onehotCoding, train_y)
            sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
            cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
            print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    '''fig, ax = plt.subplots()
    features = np.dot(np.array(alpha)[:,None],np.array(max_depth)[None]).ravel()
    ax.plot(features, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[int(i/2)],max_depth[int(i%2)],str(txt)), (features[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    '''
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/2)], criterion='gini', max_depth=max_depth[int(best_alpha%2)], random_state=42, n_jobs=-1)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best estimator = ', alpha[int(best_alpha/2)], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best estimator = ', alpha[int(best_alpha/2)], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best estimator = ', alpha[int(best_alpha/2)], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    rf_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    rf_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    rf_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for n_estimators = 100 and max depth =  5
    Log Loss : 1.1935172529257632
    for n_estimators = 100 and max depth =  10
    Log Loss : 1.1962832308278364
    for n_estimators = 200 and max depth =  5
    Log Loss : 1.1709389086511737
    for n_estimators = 200 and max depth =  10
    Log Loss : 1.1959309381890129
    for n_estimators = 500 and max depth =  5
    Log Loss : 1.1673193296531086
    for n_estimators = 500 and max depth =  10
    Log Loss : 1.1925516168401449
    for n_estimators = 1000 and max depth =  5
    Log Loss : 1.1606244843131066
    for n_estimators = 1000 and max depth =  10
    Log Loss : 1.1914953869653797
    for n_estimators = 2000 and max depth =  5
    Log Loss : 1.1588013139682916
    for n_estimators = 2000 and max depth =  10
    Log Loss : 1.1932900940654183
    For values of best estimator =  2000 The train log loss is: 0.8463084311127771
    For values of best estimator =  2000 The cross validation log loss is: 1.1588013139682916
    For values of best estimator =  2000 The test log loss is: 1.1781005729297311
    

    4.5.2. Testing model with best hyper parameters

    In [328]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/2)], criterion='gini', max_depth=max_depth[int(best_alpha%2)], random_state=42, n_jobs=-1)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y,cv_x_onehotCoding,cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    rf_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.1588013139682916
    Number of mis-classified points : 0.40789473684210525
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.5.3. Feature Importance

    4.5.3.1. Correctly Classified point

    In [329]:
    # test_point_index = 10
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/2)], criterion='gini', max_depth=max_depth[int(best_alpha%2)], random_state=42, n_jobs=-1)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    test_point_index = 1
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    get_impfeature_names(indices[:no_feature], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 1
    Predicted Class Probabilities: [[0.3088 0.0622 0.0214 0.2837 0.0793 0.0979 0.1364 0.0063 0.0039]]
    Actual Class : 6
    --------------------------------------------------
    0 Text feature [kinase] present in test data point [True]
    2 Text feature [tyrosine] present in test data point [True]
    3 Text feature [phosphorylation] present in test data point [True]
    4 Text feature [suppressor] present in test data point [True]
    5 Text feature [function] present in test data point [True]
    6 Text feature [inhibitors] present in test data point [True]
    7 Text feature [activation] present in test data point [True]
    8 Text feature [loss] present in test data point [True]
    9 Text feature [activated] present in test data point [True]
    11 Text feature [missense] present in test data point [True]
    12 Text feature [treatment] present in test data point [True]
    15 Text feature [signaling] present in test data point [True]
    17 Text feature [protein] present in test data point [True]
    21 Text feature [functional] present in test data point [True]
    25 Text feature [cell] present in test data point [True]
    29 Text feature [cells] present in test data point [True]
    31 Text feature [stability] present in test data point [True]
    38 Text feature [activate] present in test data point [True]
    42 Text feature [functions] present in test data point [True]
    45 Text feature [receptor] present in test data point [True]
    49 Text feature [inhibited] present in test data point [True]
    51 Text feature [expression] present in test data point [True]
    55 Text feature [kinases] present in test data point [True]
    56 Text feature [proteins] present in test data point [True]
    57 Text feature [inhibition] present in test data point [True]
    58 Text feature [phospho] present in test data point [True]
    60 Text feature [inactivation] present in test data point [True]
    71 Text feature [expected] present in test data point [True]
    81 Text feature [phosphatase] present in test data point [True]
    82 Text feature [response] present in test data point [True]
    84 Text feature [phosphorylated] present in test data point [True]
    87 Text feature [downstream] present in test data point [True]
    92 Text feature [predicted] present in test data point [True]
    98 Text feature [conserved] present in test data point [True]
    Out of the top  100  features  34 are present in query point
    

    4.5.3.2. Inorrectly Classified point

    In [330]:
    test_point_index = 100
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actuall Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    get_impfeature_names(indices[:no_feature], test_df['TEXT'].iloc[test_point_index],test_df['Gene'].iloc[test_point_index],test_df['Variation'].iloc[test_point_index], no_feature)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[0.1474 0.246  0.0174 0.0417 0.0663 0.0394 0.4298 0.0073 0.0045]]
    Actuall Class : 5
    --------------------------------------------------
    0 Text feature [kinase] present in test data point [True]
    1 Text feature [activating] present in test data point [True]
    2 Text feature [tyrosine] present in test data point [True]
    3 Text feature [phosphorylation] present in test data point [True]
    4 Text feature [suppressor] present in test data point [True]
    5 Text feature [function] present in test data point [True]
    6 Text feature [inhibitors] present in test data point [True]
    7 Text feature [activation] present in test data point [True]
    8 Text feature [loss] present in test data point [True]
    9 Text feature [activated] present in test data point [True]
    10 Text feature [inhibitor] present in test data point [True]
    11 Text feature [missense] present in test data point [True]
    12 Text feature [treatment] present in test data point [True]
    13 Text feature [constitutive] present in test data point [True]
    14 Text feature [oncogenic] present in test data point [True]
    15 Text feature [signaling] present in test data point [True]
    16 Text feature [therapy] present in test data point [True]
    17 Text feature [protein] present in test data point [True]
    18 Text feature [erk] present in test data point [True]
    21 Text feature [functional] present in test data point [True]
    22 Text feature [pten] present in test data point [True]
    24 Text feature [treated] present in test data point [True]
    25 Text feature [cell] present in test data point [True]
    26 Text feature [akt] present in test data point [True]
    27 Text feature [neutral] present in test data point [True]
    29 Text feature [cells] present in test data point [True]
    32 Text feature [therapeutic] present in test data point [True]
    33 Text feature [classified] present in test data point [True]
    34 Text feature [transforming] present in test data point [True]
    35 Text feature [ba] present in test data point [True]
    37 Text feature [patients] present in test data point [True]
    38 Text feature [activate] present in test data point [True]
    39 Text feature [repair] present in test data point [True]
    41 Text feature [f3] present in test data point [True]
    43 Text feature [months] present in test data point [True]
    44 Text feature [drug] present in test data point [True]
    45 Text feature [receptor] present in test data point [True]
    49 Text feature [inhibited] present in test data point [True]
    50 Text feature [growth] present in test data point [True]
    51 Text feature [expression] present in test data point [True]
    52 Text feature [odds] present in test data point [True]
    53 Text feature [ic50] present in test data point [True]
    55 Text feature [kinases] present in test data point [True]
    56 Text feature [proteins] present in test data point [True]
    57 Text feature [inhibition] present in test data point [True]
    58 Text feature [phospho] present in test data point [True]
    60 Text feature [inactivation] present in test data point [True]
    61 Text feature [mek] present in test data point [True]
    62 Text feature [3t3] present in test data point [True]
    63 Text feature [defective] present in test data point [True]
    64 Text feature [sensitivity] present in test data point [True]
    65 Text feature [extracellular] present in test data point [True]
    66 Text feature [ovarian] present in test data point [True]
    67 Text feature [expressing] present in test data point [True]
    71 Text feature [expected] present in test data point [True]
    73 Text feature [nuclear] present in test data point [True]
    76 Text feature [resistance] present in test data point [True]
    77 Text feature [use] present in test data point [True]
    78 Text feature [damage] present in test data point [True]
    79 Text feature [oncogene] present in test data point [True]
    80 Text feature [advanced] present in test data point [True]
    81 Text feature [phosphatase] present in test data point [True]
    82 Text feature [response] present in test data point [True]
    83 Text feature [clinical] present in test data point [True]
    84 Text feature [phosphorylated] present in test data point [True]
    85 Text feature [amplification] present in test data point [True]
    86 Text feature [egfr] present in test data point [True]
    87 Text feature [downstream] present in test data point [True]
    89 Text feature [imatinib] present in test data point [True]
    91 Text feature [affected] present in test data point [True]
    92 Text feature [predicted] present in test data point [True]
    94 Text feature [efficacy] present in test data point [True]
    96 Text feature [assays] present in test data point [True]
    97 Text feature [splice] present in test data point [True]
    98 Text feature [conserved] present in test data point [True]
    99 Text feature [ras] present in test data point [True]
    Out of the top  100  features  76 are present in query point
    

    4.5.3. Hyper paramter tuning (With Response Coding)

    In [331]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10,50,100,200,500,1000]
    max_depth = [2,3,5,10]
    cv_log_error_array = []
    for i in alpha:
        for j in max_depth:
            print("for n_estimators =", i,"and max depth = ", j)
            clf = RandomForestClassifier(n_estimators=i, criterion='gini', max_depth=j, random_state=42, n_jobs=-1)
            clf.fit(train_x_responseCoding, train_y)
            sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
            sig_clf.fit(train_x_responseCoding, train_y)
            sig_clf_probs = sig_clf.predict_proba(cv_x_responseCoding)
            cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
            print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    '''
    fig, ax = plt.subplots()
    features = np.dot(np.array(alpha)[:,None],np.array(max_depth)[None]).ravel()
    ax.plot(features, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[int(i/4)],max_depth[int(i%4)],str(txt)), (features[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    '''
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/4)], criterion='gini', max_depth=max_depth[int(best_alpha%4)], random_state=42, n_jobs=-1)
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_responseCoding)
    print('For values of best alpha = ', alpha[int(best_alpha/4)], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_responseCoding)
    print('For values of best alpha = ', alpha[int(best_alpha/4)], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_responseCoding)
    print('For values of best alpha = ', alpha[int(best_alpha/4)], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    rf_response_train = log_loss(y_train, sig_clf.predict_proba(train_x_responseCoding), labels=clf.classes_, eps=1e-15)
    rf_response_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_responseCoding), labels=clf.classes_, eps=1e-15)
    rf_response_test = log_loss(y_test, sig_clf.predict_proba(test_x_responseCoding), labels=clf.classes_, eps=1e-15)
    
    for n_estimators = 10 and max depth =  2
    Log Loss : 2.1345591835423474
    for n_estimators = 10 and max depth =  3
    Log Loss : 1.6986595236413289
    for n_estimators = 10 and max depth =  5
    Log Loss : 1.3087805771055592
    for n_estimators = 10 and max depth =  10
    Log Loss : 1.7473129038487052
    for n_estimators = 50 and max depth =  2
    Log Loss : 1.713611972456188
    for n_estimators = 50 and max depth =  3
    Log Loss : 1.348759034314188
    for n_estimators = 50 and max depth =  5
    Log Loss : 1.1631729403859217
    for n_estimators = 50 and max depth =  10
    Log Loss : 1.6206307856002518
    for n_estimators = 100 and max depth =  2
    Log Loss : 1.5474997506240116
    for n_estimators = 100 and max depth =  3
    Log Loss : 1.3671756851043169
    for n_estimators = 100 and max depth =  5
    Log Loss : 1.2096820653557683
    for n_estimators = 100 and max depth =  10
    Log Loss : 1.5865651771717832
    for n_estimators = 200 and max depth =  2
    Log Loss : 1.5744674423408953
    for n_estimators = 200 and max depth =  3
    Log Loss : 1.3170980176753937
    for n_estimators = 200 and max depth =  5
    Log Loss : 1.2212622834758893
    for n_estimators = 200 and max depth =  10
    Log Loss : 1.5666903796057539
    for n_estimators = 500 and max depth =  2
    Log Loss : 1.5816470808142502
    for n_estimators = 500 and max depth =  3
    Log Loss : 1.4119029712913718
    for n_estimators = 500 and max depth =  5
    Log Loss : 1.2599288508644926
    for n_estimators = 500 and max depth =  10
    Log Loss : 1.6016271902270371
    for n_estimators = 1000 and max depth =  2
    Log Loss : 1.554638732072944
    for n_estimators = 1000 and max depth =  3
    Log Loss : 1.4105956670693958
    for n_estimators = 1000 and max depth =  5
    Log Loss : 1.260818064638381
    for n_estimators = 1000 and max depth =  10
    Log Loss : 1.5729734765100511
    For values of best alpha =  50 The train log loss is: 0.06676936890896665
    For values of best alpha =  50 The cross validation log loss is: 1.1631729403859215
    For values of best alpha =  50 The test log loss is: 1.197920364468122
    

    Testing model with best hyper parameters (Response Coding)

    In [332]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    clf = RandomForestClassifier(max_depth=max_depth[int(best_alpha%4)], n_estimators=alpha[int(best_alpha/4)], criterion='gini', max_features='auto',random_state=42)
    predict_and_plot_confusion_matrix(train_x_responseCoding, train_y,cv_x_responseCoding,cv_y, clf)
    
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    rf_response_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_responseCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.1631729403859217
    Number of mis-classified points : 0.41729323308270677
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.5.5. Feature Importance

    4.5.5.1. Correctly Classified point

    In [333]:
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/4)], criterion='gini', max_depth=max_depth[int(best_alpha%4)], random_state=42, n_jobs=-1)
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    
    test_point_index = 1
    no_feature = 27
    predicted_cls = sig_clf.predict(test_x_responseCoding[test_point_index].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_responseCoding[test_point_index].reshape(1,-1)),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    for i in indices:
        if i<9:
            print("Gene is important feature")
        elif i<18:
            print("Variation is important feature")
        else:
            print("Text is important feature")
    
    Predicted Class : 1
    Predicted Class Probabilities: [[0.3371 0.0094 0.0903 0.069  0.2148 0.2541 0.0043 0.0084 0.0126]]
    Actual Class : 6
    --------------------------------------------------
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Gene is important feature
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Gene is important feature
    Variation is important feature
    Gene is important feature
    Gene is important feature
    Gene is important feature
    Text is important feature
    Variation is important feature
    Text is important feature
    Text is important feature
    Variation is important feature
    Gene is important feature
    Gene is important feature
    Text is important feature
    Gene is important feature
    Gene is important feature
    

    4.5.5.2. Incorrectly Classified point

    In [334]:
    test_point_index = 100
    predicted_cls = sig_clf.predict(test_x_responseCoding[test_point_index].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_responseCoding[test_point_index].reshape(1,-1)),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    for i in indices:
        if i<9:
            print("Gene is important feature")
        elif i<18:
            print("Variation is important feature")
        else:
            print("Text is important feature")
    
    Predicted Class : 2
    Predicted Class Probabilities: [[0.0238 0.4701 0.0882 0.0295 0.0351 0.0694 0.2534 0.0198 0.0107]]
    Actual Class : 5
    --------------------------------------------------
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Gene is important feature
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Gene is important feature
    Variation is important feature
    Gene is important feature
    Gene is important feature
    Gene is important feature
    Text is important feature
    Variation is important feature
    Text is important feature
    Text is important feature
    Variation is important feature
    Gene is important feature
    Gene is important feature
    Text is important feature
    Gene is important feature
    Gene is important feature
    

    Stack the models

    4.7.1 testing with hyper parameter tuning

    In [335]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestClassifier.html
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    
    clf1 = SGDClassifier(alpha=0.001, penalty='l2', loss='log', class_weight='balanced', random_state=0)
    clf1.fit(train_x_onehotCoding, train_y)
    sig_clf1 = CalibratedClassifierCV(clf1, method="sigmoid")
    
    clf2 = SGDClassifier(alpha=1, penalty='l2', loss='hinge', class_weight='balanced', random_state=0)
    clf2.fit(train_x_onehotCoding, train_y)
    sig_clf2 = CalibratedClassifierCV(clf2, method="sigmoid")
    
    
    clf3 = MultinomialNB(alpha=0.001)
    clf3.fit(train_x_onehotCoding, train_y)
    sig_clf3 = CalibratedClassifierCV(clf3, method="sigmoid")
    
    sig_clf1.fit(train_x_onehotCoding, train_y)
    print("Logistic Regression :  Log Loss: %0.2f" % (log_loss(cv_y, sig_clf1.predict_proba(cv_x_onehotCoding))))
    sig_clf2.fit(train_x_onehotCoding, train_y)
    print("Support vector machines : Log Loss: %0.2f" % (log_loss(cv_y, sig_clf2.predict_proba(cv_x_onehotCoding))))
    sig_clf3.fit(train_x_onehotCoding, train_y)
    print("Naive Bayes : Log Loss: %0.2f" % (log_loss(cv_y, sig_clf3.predict_proba(cv_x_onehotCoding))))
    print("-"*50)
    alpha = [0.0001,0.001,0.01,0.1,1,10] 
    best_alpha = 999
    for i in alpha:
        lr = LogisticRegression(C=i)
        sclf = StackingClassifier(classifiers=[sig_clf1, sig_clf2, sig_clf3], meta_classifier=lr, use_probas=True)
        sclf.fit(train_x_onehotCoding, train_y)
        print("Stacking Classifer : for the value of alpha: %f Log Loss: %0.3f" % (i, log_loss(cv_y, sclf.predict_proba(cv_x_onehotCoding))))
        log_error =log_loss(cv_y, sclf.predict_proba(cv_x_onehotCoding))
        if best_alpha > log_error:
            best_alpha = log_error
    
    Logistic Regression :  Log Loss: 1.00
    Support vector machines : Log Loss: 1.79
    Naive Bayes : Log Loss: 1.19
    --------------------------------------------------
    Stacking Classifer : for the value of alpha: 0.000100 Log Loss: 2.177
    Stacking Classifer : for the value of alpha: 0.001000 Log Loss: 2.028
    Stacking Classifer : for the value of alpha: 0.010000 Log Loss: 1.493
    Stacking Classifer : for the value of alpha: 0.100000 Log Loss: 1.169
    Stacking Classifer : for the value of alpha: 1.000000 Log Loss: 1.390
    Stacking Classifer : for the value of alpha: 10.000000 Log Loss: 1.879
    

    4.7.2 testing the model with the best hyper parameters

    In [336]:
    lr = LogisticRegression(C=0.1)
    sclf = StackingClassifier(classifiers=[sig_clf1, sig_clf2, sig_clf3], meta_classifier=lr, use_probas=True)
    sclf.fit(train_x_onehotCoding, train_y)
    
    log_error = log_loss(train_y, sclf.predict_proba(train_x_onehotCoding))
    print("Log loss (train) on the stacking classifier :",log_error)
    
    log_error1 = log_loss(cv_y, sclf.predict_proba(cv_x_onehotCoding))
    print("Log loss (CV) on the stacking classifier :",log_error)
    
    log_error2 = log_loss(test_y, sclf.predict_proba(test_x_onehotCoding))
    print("Log loss (test) on the stacking classifier :",log_error)
    
    print("Number of missclassified point :", np.count_nonzero((sclf.predict(test_x_onehotCoding)- test_y))/test_y.shape[0])
    plot_confusion_matrix(test_y=test_y, predict_y=sclf.predict(test_x_onehotCoding))
    
    # Variables that will be used in the end to make comparison table of all models
    stack_train = log_error
    stack_cv = log_error1
    stack_test = log_error2
    stack_misclassified = (np.count_nonzero((sclf.predict(test_x_onehotCoding)- test_y))/test_y.shape[0])*100
    
    Log loss (train) on the stacking classifier : 0.5343871367603206
    Log loss (CV) on the stacking classifier : 0.5343871367603206
    Log loss (test) on the stacking classifier : 0.5343871367603206
    Number of missclassified point : 0.3669172932330827
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.7.3 Maximum Voting classifier

    In [337]:
    #Refer:http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.VotingClassifier.html
    from sklearn.ensemble import VotingClassifier
    vclf = VotingClassifier(estimators=[('lr', sig_clf1), ('svc', sig_clf2), ('rf', sig_clf3)], voting='soft')
    vclf.fit(train_x_onehotCoding, train_y)
    print("Log loss (train) on the VotingClassifier :", log_loss(train_y, vclf.predict_proba(train_x_onehotCoding)))
    print("Log loss (CV) on the VotingClassifier :", log_loss(cv_y, vclf.predict_proba(cv_x_onehotCoding)))
    print("Log loss (test) on the VotingClassifier :", log_loss(test_y, vclf.predict_proba(test_x_onehotCoding)))
    print("Number of missclassified point :", np.count_nonzero((vclf.predict(test_x_onehotCoding)- test_y))/test_y.shape[0])
    plot_confusion_matrix(test_y=test_y, predict_y=vclf.predict(test_x_onehotCoding))
    
    # Variables that will be used in the end to make comparison table of all models
    mvc_train = log_loss(train_y, vclf.predict_proba(train_x_onehotCoding))
    mvc_cv = log_loss(cv_y, vclf.predict_proba(cv_x_onehotCoding))
    mvc_test = log_loss(test_y, vclf.predict_proba(test_x_onehotCoding))
    mvc_misclassified = (np.count_nonzero((vclf.predict(test_x_onehotCoding)- test_y))/test_y.shape[0])*100
    
    Log loss (train) on the VotingClassifier : 0.8230766457755163
    Log loss (CV) on the VotingClassifier : 1.1683190460408739
    Log loss (test) on the VotingClassifier : 1.1679973985930663
    Number of missclassified point : 0.36390977443609024
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    CONCLUSION

    (a). Procedure Followed :-

    STEP 1:- Replace TfidfVectorizer() by TfidfVectorizer(max_features=1000) in the one hot encoding section of text feature to get top 1000 words based of tf-idf values.

    (b).Table (Model Performances):-

    In [91]:
    # Creating table using PrettyTable library
    
    
    # Names of models
    names =['Naive Bayes','K-Nearest Neighbour','LR With Class Balancing',\
            'LR Without Class Balancing','Linear SVM',\
            'RF With One hot Encoding','RF With Response Coding',\
            'Stacking Classifier','Maximum Voting Classifier']
    
    # Training loss
    train_loss = [0.507287, 0.6312205,0.434984 ,0.42844637,0.4640753,0.846308,0.06676936,0.5343871,0.8230766] 
    
    # Cross Validation loss
    cv_loss = [1.1872495,1.04444527,0.98534869,1.0185430,1.05027231,1.1588013,1.1631729,0.5343871, 1.16831904]
    # Test loss
    test_loss = [1.1608803,1.0135835,0.983339,1.0086883,1.04569821,1.17810057, 1.197920,0.5343871,1.167997398]
    
    
    alpha=[0.001,11,.001,.0001,.0001,2000,50,.1,'NaN']
    
    # Percentage Misclassified points
    misclassified = [0.3928571,0.353383,0.36090226,0.351503759, 0.36466165,0.40789473,  0.417293, 0.366917293233, 0.363909774]
    
    numbering = [1,2,3,4,5,6,7,8,9]
    
    # Initializing prettytable
    ptable = PrettyTable()
    
    # Adding columns
    ptable.add_column("S.NO.",numbering)
    ptable.add_column("MODEL",names)
    ptable.add_column("hyperparameter",alpha)
    ptable.add_column("Train_loss",train_loss)
    ptable.add_column("CV_loss",cv_loss)
    ptable.add_column("Test_loss",test_loss)
    ptable.add_column("Misclassified(%)",misclassified)
    
    # Printing the Table
    print(ptable)
    
    +-------+----------------------------+----------------+------------+------------+-------------+------------------+
    | S.NO. |           MODEL            | hyperparameter | Train_loss |  CV_loss   |  Test_loss  | Misclassified(%) |
    +-------+----------------------------+----------------+------------+------------+-------------+------------------+
    |   1   |        Naive Bayes         |     0.001      |  0.507287  | 1.1872495  |  1.1608803  |    0.3928571     |
    |   2   |    K-Nearest Neighbour     |       11       | 0.6312205  | 1.04444527 |  1.0135835  |     0.353383     |
    |   3   |  LR With Class Balancing   |     0.001      |  0.434984  | 0.98534869 |   0.983339  |    0.36090226    |
    |   4   | LR Without Class Balancing |     0.0001     | 0.42844637 |  1.018543  |  1.0086883  |   0.351503759    |
    |   5   |         Linear SVM         |     0.0001     | 0.4640753  | 1.05027231 |  1.04569821 |    0.36466165    |
    |   6   |  RF With One hot Encoding  |      2000      |  0.846308  | 1.1588013  |  1.17810057 |    0.40789473    |
    |   7   |  RF With Response Coding   |       50       | 0.06676936 | 1.1631729  |   1.19792   |     0.417293     |
    |   8   |    Stacking Classifier     |      0.1       | 0.5343871  | 0.5343871  |  0.5343871  |  0.366917293233  |
    |   9   | Maximum Voting Classifier  |      NaN       | 0.8230766  | 1.16831904 | 1.167997398 |   0.363909774    |
    +-------+----------------------------+----------------+------------+------------+-------------+------------------+
    

    -------------------------------------------------TASK3-----------------------------------------------------

    Apply Logistic regression with CountVectorizer Features, including both unigrams and bigrams

    In [342]:
    # one-hot encoding of Gene feature.
    gene_vectorizer = CountVectorizer(ngram_range=(1,2))
    train_gene_feature_onehotCoding = gene_vectorizer.fit_transform(train_df['Gene'])
    test_gene_feature_onehotCoding = gene_vectorizer.transform(test_df['Gene'])
    cv_gene_feature_onehotCoding = gene_vectorizer.transform(cv_df['Gene'])
    
    In [343]:
    # one-hot encoding of variation feature.
    variation_vectorizer = CountVectorizer(ngram_range=(1,2))
    train_variation_feature_onehotCoding = variation_vectorizer.fit_transform(train_df['Variation'])
    test_variation_feature_onehotCoding = variation_vectorizer.transform(test_df['Variation'])
    cv_variation_feature_onehotCoding = variation_vectorizer.transform(cv_df['Variation'])
    
    In [344]:
    # building a CountVectorizer with all the words that occured minimum 3 times in train data
    text_vectorizer = CountVectorizer(ngram_range=(1,2))
    train_text_feature_onehotCoding = text_vectorizer.fit_transform(train_df['TEXT'])
    # getting all the feature names (words)
    train_text_features= text_vectorizer.get_feature_names()
    
    # train_text_feature_onehotCoding.sum(axis=0).A1 will sum every row and returns (1*number of features) vector
    train_text_fea_counts = train_text_feature_onehotCoding.sum(axis=0).A1
    
    # zip(list(text_features),text_fea_counts) will zip a word with its number of times it occured
    text_fea_dict = dict(zip(list(train_text_features),train_text_fea_counts))
    
    
    print("Total number of unique words in train data :", len(train_text_features))
    
    Total number of unique words in train data : 2363094
    
    In [345]:
    dict_list = []
    # dict_list =[] contains 9 dictoinaries each corresponds to a class
    for i in range(1,10):
        cls_text = train_df[train_df['Class']==i]
        # build a word dict based on the words in that class
        dict_list.append(extract_dictionary_paddle(cls_text))
        # append it to dict_list
    
    # dict_list[i] is build on i'th  class text data
    # total_dict is buid on whole training text data
    total_dict = extract_dictionary_paddle(train_df)
    
    
    confuse_array = []
    for i in train_text_features:
        ratios = []
        max_val = -1
        for j in range(0,9):
            ratios.append((dict_list[j][i]+10 )/(total_dict[i]+90))
        confuse_array.append(ratios)
    confuse_array = np.array(confuse_array)
    
    In [346]:
    # don't forget to normalize every feature
    train_text_feature_onehotCoding = normalize(train_text_feature_onehotCoding, axis=0)
    
    # we use the same vectorizer that was trained on train data
    test_text_feature_onehotCoding = text_vectorizer.transform(test_df['TEXT'])
    # don't forget to normalize every feature
    test_text_feature_onehotCoding = normalize(test_text_feature_onehotCoding, axis=0)
    
    # we use the same vectorizer that was trained on train data
    cv_text_feature_onehotCoding = text_vectorizer.transform(cv_df['TEXT'])
    # don't forget to normalize every feature
    cv_text_feature_onehotCoding = normalize(cv_text_feature_onehotCoding, axis=0)
    
    In [347]:
    #https://stackoverflow.com/a/2258273/4084039
    sorted_text_fea_dict = dict(sorted(text_fea_dict.items(), key=lambda x: x[1] , reverse=True))
    sorted_text_occur = np.array(list(sorted_text_fea_dict.values()))
    
    In [348]:
    # Number of words for a given frequency.
    print(Counter(sorted_text_occur))
    
    Counter({1: 1123632, 2: 379094, 3: 189311, 4: 130212, 5: 64402, 6: 63873, 7: 44958, 8: 40150, 9: 34744, 11: 31263, 10: 29480, 12: 21075, 13: 16330, 14: 14334, 15: 13377, 16: 12816, 18: 9458, 17: 7173, 20: 6655, 19: 6488, 22: 5405, 21: 5140, 24: 5123, 23: 4760, 30: 4412, 42: 4368, 29: 3923, 25: 3498, 26: 3441, 27: 3125, 28: 3042, 31: 2779, 32: 2500, 47: 2387, 33: 2274, 36: 1924, 34: 1852, 35: 1770, 43: 1594, 38: 1510, 37: 1471, 40: 1470, 64: 1433, 39: 1418, 44: 1403, 54: 1377, 48: 1300, 41: 1231, 45: 1215, 46: 1102, 49: 1044, 50: 968, 51: 883, 52: 852, 55: 851, 56: 823, 60: 800, 53: 754, 58: 749, 57: 702, 65: 632, 59: 629, 66: 618, 63: 598, 84: 589, 62: 574, 67: 567, 61: 548, 70: 534, 68: 525, 72: 507, 69: 494, 71: 445, 73: 436, 75: 409, 78: 397, 77: 392, 74: 392, 76: 390, 81: 370, 80: 370, 85: 349, 79: 349, 82: 331, 90: 321, 86: 314, 83: 304, 94: 301, 91: 300, 88: 296, 92: 284, 89: 281, 87: 274, 96: 264, 95: 248, 97: 236, 108: 223, 98: 222, 101: 220, 99: 217, 93: 217, 104: 212, 103: 198, 102: 195, 100: 190, 109: 187, 105: 186, 116: 184, 128: 178, 120: 176, 107: 174, 106: 172, 126: 171, 112: 171, 119: 168, 111: 168, 110: 166, 115: 164, 114: 156, 122: 150, 125: 149, 123: 148, 132: 146, 113: 146, 117: 142, 124: 139, 121: 139, 118: 139, 134: 131, 143: 127, 141: 126, 136: 125, 127: 125, 135: 124, 137: 122, 133: 121, 142: 118, 130: 117, 129: 117, 144: 115, 131: 115, 150: 113, 140: 107, 145: 104, 138: 104, 148: 102, 146: 102, 168: 101, 153: 97, 151: 95, 147: 95, 154: 94, 139: 94, 156: 93, 149: 91, 152: 88, 164: 87, 155: 87, 159: 86, 162: 82, 160: 82, 157: 79, 165: 77, 161: 76, 181: 75, 170: 74, 179: 73, 173: 72, 169: 72, 176: 70, 167: 70, 166: 70, 192: 69, 178: 69, 171: 69, 158: 69, 163: 68, 174: 67, 180: 66, 182: 65, 184: 64, 190: 62, 189: 62, 188: 62, 198: 61, 224: 60, 195: 60, 172: 60, 185: 59, 202: 58, 194: 58, 177: 58, 209: 57, 187: 57, 175: 57, 210: 54, 204: 54, 200: 54, 235: 53, 191: 52, 220: 51, 218: 51, 201: 51, 186: 51, 214: 50, 203: 50, 199: 50, 221: 49, 193: 49, 183: 49, 213: 48, 207: 48, 239: 47, 212: 47, 205: 47, 196: 47, 232: 46, 216: 46, 206: 46, 248: 45, 197: 45, 217: 44, 237: 43, 236: 43, 219: 43, 211: 43, 270: 42, 242: 42, 234: 40, 233: 40, 222: 40, 278: 39, 227: 39, 223: 39, 229: 38, 208: 37, 215: 36, 304: 35, 245: 35, 230: 35, 277: 34, 276: 34, 266: 34, 256: 34, 226: 34, 225: 34, 300: 33, 264: 33, 243: 33, 231: 33, 284: 32, 271: 32, 259: 32, 254: 32, 240: 32, 298: 31, 294: 31, 285: 31, 269: 31, 268: 31, 255: 31, 252: 31, 247: 31, 241: 31, 289: 30, 282: 30, 261: 30, 334: 29, 331: 29, 301: 29, 288: 29, 286: 29, 267: 29, 258: 29, 238: 29, 312: 28, 299: 28, 292: 28, 273: 28, 253: 28, 249: 28, 246: 28, 274: 27, 272: 27, 244: 27, 349: 26, 325: 26, 291: 26, 228: 26, 326: 25, 307: 25, 287: 25, 279: 25, 275: 25, 263: 25, 260: 25, 251: 25, 319: 24, 283: 24, 281: 24, 352: 23, 344: 23, 336: 23, 329: 23, 310: 23, 257: 23, 332: 22, 295: 22, 293: 22, 280: 22, 262: 22, 250: 22, 373: 21, 339: 21, 330: 21, 323: 21, 316: 21, 381: 20, 328: 20, 324: 20, 320: 20, 308: 20, 306: 20, 303: 20, 296: 20, 290: 20, 265: 20, 446: 19, 378: 19, 375: 19, 338: 19, 327: 19, 314: 19, 313: 19, 309: 19, 397: 18, 351: 18, 347: 18, 321: 18, 302: 18, 297: 18, 454: 17, 421: 17, 403: 17, 401: 17, 377: 17, 372: 17, 368: 17, 362: 17, 354: 17, 350: 17, 346: 17, 343: 17, 451: 16, 441: 16, 414: 16, 412: 16, 411: 16, 363: 16, 359: 16, 357: 16, 353: 16, 345: 16, 342: 16, 335: 16, 322: 16, 318: 16, 486: 15, 470: 15, 438: 15, 422: 15, 402: 15, 398: 15, 393: 15, 358: 15, 355: 15, 462: 14, 436: 14, 432: 14, 427: 14, 420: 14, 418: 14, 413: 14, 391: 14, 389: 14, 382: 14, 370: 14, 366: 14, 356: 14, 340: 14, 337: 14, 317: 14, 315: 14, 305: 14, 484: 13, 461: 13, 433: 13, 430: 13, 405: 13, 385: 13, 384: 13, 379: 13, 374: 13, 364: 13, 333: 13, 1057: 12, 532: 12, 489: 12, 474: 12, 473: 12, 459: 12, 456: 12, 453: 12, 448: 12, 426: 12, 406: 12, 399: 12, 394: 12, 390: 12, 388: 12, 367: 12, 348: 12, 311: 12, 611: 11, 580: 11, 576: 11, 550: 11, 542: 11, 540: 11, 494: 11, 480: 11, 468: 11, 457: 11, 455: 11, 437: 11, 431: 11, 429: 11, 423: 11, 417: 11, 416: 11, 408: 11, 387: 11, 371: 11, 369: 11, 361: 11, 360: 11, 341: 11, 626: 10, 617: 10, 614: 10, 613: 10, 549: 10, 541: 10, 533: 10, 527: 10, 517: 10, 514: 10, 511: 10, 507: 10, 491: 10, 490: 10, 478: 10, 476: 10, 463: 10, 447: 10, 444: 10, 440: 10, 435: 10, 434: 10, 428: 10, 410: 10, 407: 10, 404: 10, 386: 10, 365: 10, 694: 9, 678: 9, 673: 9, 618: 9, 605: 9, 598: 9, 591: 9, 565: 9, 558: 9, 545: 9, 539: 9, 528: 9, 518: 9, 515: 9, 506: 9, 504: 9, 502: 9, 487: 9, 483: 9, 466: 9, 460: 9, 450: 9, 445: 9, 443: 9, 442: 9, 424: 9, 409: 9, 396: 9, 395: 9, 392: 9, 380: 9, 1037: 8, 979: 8, 883: 8, 737: 8, 722: 8, 688: 8, 686: 8, 682: 8, 672: 8, 667: 8, 644: 8, 632: 8, 622: 8, 604: 8, 589: 8, 585: 8, 583: 8, 581: 8, 577: 8, 570: 8, 566: 8, 563: 8, 554: 8, 544: 8, 543: 8, 537: 8, 530: 8, 512: 8, 505: 8, 501: 8, 499: 8, 497: 8, 495: 8, 493: 8, 481: 8, 479: 8, 471: 8, 469: 8, 464: 8, 458: 8, 383: 8, 1137: 7, 1063: 7, 917: 7, 901: 7, 823: 7, 794: 7, 772: 7, 758: 7, 755: 7, 750: 7, 724: 7, 713: 7, 707: 7, 699: 7, 685: 7, 671: 7, 652: 7, 647: 7, 638: 7, 609: 7, 608: 7, 603: 7, 597: 7, 595: 7, 588: 7, 584: 7, 573: 7, 571: 7, 567: 7, 562: 7, 556: 7, 555: 7, 551: 7, 547: 7, 535: 7, 531: 7, 529: 7, 524: 7, 521: 7, 520: 7, 500: 7, 498: 7, 485: 7, 477: 7, 467: 7, 452: 7, 449: 7, 419: 7, 376: 7, 1372: 6, 1342: 6, 1179: 6, 1165: 6, 1156: 6, 1133: 6, 985: 6, 966: 6, 937: 6, 878: 6, 845: 6, 806: 6, 804: 6, 787: 6, 784: 6, 779: 6, 777: 6, 762: 6, 760: 6, 756: 6, 749: 6, 730: 6, 729: 6, 726: 6, 717: 6, 691: 6, 665: 6, 662: 6, 660: 6, 648: 6, 646: 6, 640: 6, 635: 6, 633: 6, 631: 6, 624: 6, 616: 6, 615: 6, 606: 6, 601: 6, 586: 6, 575: 6, 574: 6, 569: 6, 553: 6, 548: 6, 536: 6, 516: 6, 482: 6, 472: 6, 439: 6, 415: 6, 400: 6, 1904: 5, 1463: 5, 1353: 5, 1299: 5, 1271: 5, 1240: 5, 1206: 5, 1181: 5, 1097: 5, 1094: 5, 1080: 5, 1051: 5, 1038: 5, 976: 5, 971: 5, 956: 5, 950: 5, 931: 5, 927: 5, 920: 5, 914: 5, 887: 5, 886: 5, 881: 5, 879: 5, 877: 5, 873: 5, 864: 5, 855: 5, 842: 5, 838: 5, 816: 5, 807: 5, 805: 5, 799: 5, 798: 5, 789: 5, 771: 5, 759: 5, 757: 5, 752: 5, 748: 5, 747: 5, 744: 5, 735: 5, 734: 5, 733: 5, 728: 5, 719: 5, 714: 5, 708: 5, 706: 5, 703: 5, 702: 5, 700: 5, 697: 5, 684: 5, 679: 5, 674: 5, 668: 5, 663: 5, 658: 5, 650: 5, 645: 5, 642: 5, 641: 5, 629: 5, 628: 5, 627: 5, 625: 5, 623: 5, 621: 5, 612: 5, 610: 5, 600: 5, 596: 5, 594: 5, 593: 5, 572: 5, 568: 5, 560: 5, 559: 5, 557: 5, 526: 5, 522: 5, 519: 5, 510: 5, 509: 5, 488: 5, 475: 5, 425: 5, 2143: 4, 2125: 4, 2070: 4, 2069: 4, 1743: 4, 1701: 4, 1665: 4, 1649: 4, 1587: 4, 1559: 4, 1501: 4, 1500: 4, 1489: 4, 1403: 4, 1399: 4, 1343: 4, 1339: 4, 1335: 4, 1319: 4, 1301: 4, 1243: 4, 1235: 4, 1234: 4, 1230: 4, 1226: 4, 1210: 4, 1202: 4, 1147: 4, 1117: 4, 1111: 4, 1103: 4, 1101: 4, 1082: 4, 1074: 4, 1068: 4, 1064: 4, 1062: 4, 1056: 4, 1045: 4, 1028: 4, 1002: 4, 1000: 4, 995: 4, 994: 4, 993: 4, 990: 4, 982: 4, 975: 4, 963: 4, 961: 4, 957: 4, 943: 4, 940: 4, 934: 4, 923: 4, 922: 4, 912: 4, 904: 4, 902: 4, 898: 4, 891: 4, 889: 4, 882: 4, 875: 4, 870: 4, 868: 4, 856: 4, 853: 4, 849: 4, 846: 4, 841: 4, 836: 4, 832: 4, 831: 4, 828: 4, 826: 4, 818: 4, 813: 4, 810: 4, 809: 4, 808: 4, 800: 4, 795: 4, 791: 4, 786: 4, 782: 4, 780: 4, 776: 4, 775: 4, 774: 4, 768: 4, 765: 4, 764: 4, 763: 4, 761: 4, 754: 4, 745: 4, 742: 4, 725: 4, 721: 4, 716: 4, 715: 4, 710: 4, 709: 4, 704: 4, 681: 4, 680: 4, 676: 4, 659: 4, 656: 4, 655: 4, 636: 4, 620: 4, 607: 4, 599: 4, 592: 4, 587: 4, 582: 4, 578: 4, 564: 4, 552: 4, 534: 4, 525: 4, 523: 4, 508: 4, 503: 4, 3679: 3, 3159: 3, 2641: 3, 2548: 3, 2518: 3, 2504: 3, 2430: 3, 2388: 3, 2329: 3, 2153: 3, 2152: 3, 2075: 3, 2009: 3, 2008: 3, 1937: 3, 1930: 3, 1924: 3, 1876: 3, 1872: 3, 1856: 3, 1845: 3, 1742: 3, 1733: 3, 1717: 3, 1710: 3, 1698: 3, 1689: 3, 1663: 3, 1648: 3, 1647: 3, 1644: 3, 1636: 3, 1633: 3, 1630: 3, 1627: 3, 1617: 3, 1603: 3, 1601: 3, 1594: 3, 1577: 3, 1569: 3, 1554: 3, 1545: 3, 1542: 3, 1528: 3, 1522: 3, 1511: 3, 1503: 3, 1498: 3, 1456: 3, 1454: 3, 1436: 3, 1433: 3, 1414: 3, 1407: 3, 1394: 3, 1384: 3, 1380: 3, 1376: 3, 1371: 3, 1331: 3, 1321: 3, 1315: 3, 1313: 3, 1312: 3, 1311: 3, 1283: 3, 1282: 3, 1270: 3, 1261: 3, 1252: 3, 1248: 3, 1245: 3, 1244: 3, 1232: 3, 1224: 3, 1223: 3, 1219: 3, 1217: 3, 1216: 3, 1209: 3, 1203: 3, 1198: 3, 1194: 3, 1173: 3, 1170: 3, 1167: 3, 1163: 3, 1136: 3, 1128: 3, 1122: 3, 1119: 3, 1110: 3, 1109: 3, 1099: 3, 1072: 3, 1065: 3, 1059: 3, 1048: 3, 1042: 3, 1041: 3, 1040: 3, 1039: 3, 1034: 3, 1031: 3, 1025: 3, 1022: 3, 1017: 3, 1010: 3, 1003: 3, 999: 3, 988: 3, 987: 3, 981: 3, 977: 3, 972: 3, 967: 3, 960: 3, 959: 3, 953: 3, 946: 3, 945: 3, 944: 3, 936: 3, 930: 3, 926: 3, 925: 3, 924: 3, 916: 3, 913: 3, 905: 3, 896: 3, 892: 3, 885: 3, 876: 3, 872: 3, 863: 3, 860: 3, 859: 3, 858: 3, 852: 3, 851: 3, 848: 3, 835: 3, 833: 3, 830: 3, 829: 3, 825: 3, 822: 3, 821: 3, 817: 3, 814: 3, 812: 3, 811: 3, 803: 3, 802: 3, 801: 3, 797: 3, 790: 3, 788: 3, 785: 3, 781: 3, 773: 3, 769: 3, 767: 3, 766: 3, 751: 3, 738: 3, 736: 3, 731: 3, 723: 3, 712: 3, 711: 3, 705: 3, 698: 3, 695: 3, 692: 3, 690: 3, 687: 3, 675: 3, 669: 3, 661: 3, 654: 3, 653: 3, 651: 3, 643: 3, 637: 3, 634: 3, 630: 3, 590: 3, 561: 3, 546: 3, 538: 3, 513: 3, 496: 3, 14461: 2, 12039: 2, 9154: 2, 8508: 2, 7549: 2, 7051: 2, 6701: 2, 5721: 2, 5551: 2, 4988: 2, 4587: 2, 4447: 2, 4362: 2, 4274: 2, 4203: 2, 4190: 2, 4171: 2, 4074: 2, 3988: 2, 3957: 2, 3899: 2, 3890: 2, 3872: 2, 3805: 2, 3787: 2, 3662: 2, 3589: 2, 3579: 2, 3566: 2, 3524: 2, 3453: 2, 3397: 2, 3359: 2, 3341: 2, 3323: 2, 3292: 2, 3248: 2, 3216: 2, 3196: 2, 3176: 2, 3153: 2, 3149: 2, 3145: 2, 3141: 2, 3130: 2, 3107: 2, 3065: 2, 3034: 2, 3024: 2, 2994: 2, 2987: 2, 2977: 2, 2951: 2, 2910: 2, 2907: 2, 2893: 2, 2755: 2, 2745: 2, 2719: 2, 2717: 2, 2714: 2, 2705: 2, 2679: 2, 2667: 2, 2663: 2, 2660: 2, 2614: 2, 2565: 2, 2563: 2, 2557: 2, 2553: 2, 2532: 2, 2523: 2, 2485: 2, 2484: 2, 2462: 2, 2454: 2, 2452: 2, 2414: 2, 2391: 2, 2356: 2, 2337: 2, 2323: 2, 2302: 2, 2290: 2, 2289: 2, 2271: 2, 2238: 2, 2223: 2, 2222: 2, 2220: 2, 2194: 2, 2192: 2, 2167: 2, 2165: 2, 2164: 2, 2162: 2, 2130: 2, 2129: 2, 2123: 2, 2100: 2, 2088: 2, 2081: 2, 2073: 2, 2071: 2, 2061: 2, 2056: 2, 2045: 2, 2034: 2, 2033: 2, 2029: 2, 2024: 2, 2002: 2, 2001: 2, 1997: 2, 1994: 2, 1991: 2, 1987: 2, 1983: 2, 1982: 2, 1978: 2, 1974: 2, 1964: 2, 1958: 2, 1957: 2, 1949: 2, 1947: 2, 1944: 2, 1921: 2, 1916: 2, 1901: 2, 1899: 2, 1898: 2, 1897: 2, 1882: 2, 1869: 2, 1867: 2, 1838: 2, 1833: 2, 1832: 2, 1822: 2, 1813: 2, 1807: 2, 1792: 2, 1782: 2, 1781: 2, 1773: 2, 1771: 2, 1770: 2, 1745: 2, 1739: 2, 1728: 2, 1726: 2, 1719: 2, 1712: 2, 1685: 2, 1683: 2, 1668: 2, 1659: 2, 1653: 2, 1652: 2, 1650: 2, 1646: 2, 1640: 2, 1637: 2, 1634: 2, 1626: 2, 1619: 2, 1618: 2, 1616: 2, 1611: 2, 1609: 2, 1590: 2, 1572: 2, 1567: 2, 1565: 2, 1564: 2, 1562: 2, 1558: 2, 1553: 2, 1544: 2, 1532: 2, 1521: 2, 1514: 2, 1513: 2, 1507: 2, 1506: 2, 1504: 2, 1495: 2, 1490: 2, 1486: 2, 1483: 2, 1476: 2, 1475: 2, 1472: 2, 1461: 2, 1455: 2, 1445: 2, 1437: 2, 1435: 2, 1428: 2, 1420: 2, 1418: 2, 1415: 2, 1413: 2, 1408: 2, 1400: 2, 1393: 2, 1391: 2, 1390: 2, 1387: 2, 1383: 2, 1382: 2, 1379: 2, 1378: 2, 1374: 2, 1373: 2, 1370: 2, 1363: 2, 1362: 2, 1360: 2, 1359: 2, 1346: 2, 1338: 2, 1336: 2, 1334: 2, 1329: 2, 1327: 2, 1323: 2, 1316: 2, 1314: 2, 1308: 2, 1307: 2, 1304: 2, 1302: 2, 1300: 2, 1296: 2, 1293: 2, 1292: 2, 1291: 2, 1290: 2, 1289: 2, 1288: 2, 1285: 2, 1284: 2, 1278: 2, 1272: 2, 1269: 2, 1267: 2, 1266: 2, 1264: 2, 1263: 2, 1260: 2, 1255: 2, 1254: 2, 1251: 2, 1237: 2, 1236: 2, 1233: 2, 1229: 2, 1225: 2, 1218: 2, 1215: 2, 1213: 2, 1207: 2, 1200: 2, 1192: 2, 1188: 2, 1186: 2, 1178: 2, 1174: 2, 1159: 2, 1158: 2, 1154: 2, 1152: 2, 1143: 2, 1140: 2, 1132: 2, 1131: 2, 1130: 2, 1124: 2, 1121: 2, 1118: 2, 1114: 2, 1108: 2, 1107: 2, 1106: 2, 1105: 2, 1098: 2, 1081: 2, 1079: 2, 1078: 2, 1073: 2, 1071: 2, 1069: 2, 1066: 2, 1061: 2, 1055: 2, 1054: 2, 1053: 2, 1049: 2, 1043: 2, 1032: 2, 1019: 2, 1013: 2, 1009: 2, 1005: 2, 1004: 2, 997: 2, 996: 2, 992: 2, 991: 2, 986: 2, 984: 2, 974: 2, 973: 2, 970: 2, 969: 2, 968: 2, 964: 2, 962: 2, 952: 2, 951: 2, 949: 2, 948: 2, 947: 2, 932: 2, 929: 2, 928: 2, 921: 2, 918: 2, 909: 2, 906: 2, 900: 2, 899: 2, 895: 2, 893: 2, 890: 2, 888: 2, 884: 2, 880: 2, 874: 2, 871: 2, 867: 2, 866: 2, 862: 2, 861: 2, 854: 2, 850: 2, 847: 2, 844: 2, 843: 2, 837: 2, 834: 2, 827: 2, 824: 2, 820: 2, 815: 2, 793: 2, 792: 2, 770: 2, 753: 2, 743: 2, 741: 2, 739: 2, 732: 2, 727: 2, 701: 2, 696: 2, 693: 2, 689: 2, 683: 2, 670: 2, 666: 2, 657: 2, 639: 2, 579: 2, 465: 2, 153467: 1, 119633: 1, 82223: 1, 68456: 1, 66932: 1, 66255: 1, 66019: 1, 65460: 1, 63457: 1, 62322: 1, 55738: 1, 53899: 1, 48622: 1, 48366: 1, 46453: 1, 45788: 1, 44737: 1, 42921: 1, 42138: 1, 41623: 1, 40332: 1, 40245: 1, 40027: 1, 39409: 1, 38552: 1, 37904: 1, 37482: 1, 37469: 1, 36144: 1, 35755: 1, 35649: 1, 35352: 1, 34766: 1, 33341: 1, 32944: 1, 32756: 1, 32306: 1, 31776: 1, 29599: 1, 29225: 1, 27899: 1, 26345: 1, 26308: 1, 26223: 1, 25765: 1, 25106: 1, 25097: 1, 25083: 1, 24656: 1, 24613: 1, 24593: 1, 24495: 1, 24318: 1, 23993: 1, 23626: 1, 22805: 1, 22601: 1, 22319: 1, 22223: 1, 21697: 1, 21016: 1, 20777: 1, 20593: 1, 20363: 1, 20321: 1, 20315: 1, 19733: 1, 19586: 1, 19559: 1, 19503: 1, 19097: 1, 19085: 1, 19012: 1, 18853: 1, 18820: 1, 18797: 1, 18730: 1, 18530: 1, 18378: 1, 18202: 1, 18004: 1, 17755: 1, 17741: 1, 17620: 1, 17568: 1, 17522: 1, 17464: 1, 17417: 1, 17397: 1, 17311: 1, 17293: 1, 17258: 1, 17063: 1, 17045: 1, 16964: 1, 16903: 1, 16668: 1, 16545: 1, 16540: 1, 16528: 1, 16427: 1, 15921: 1, 15906: 1, 15617: 1, 15598: 1, 15595: 1, 15593: 1, 15571: 1, 15445: 1, 15272: 1, 15145: 1, 15072: 1, 15068: 1, 15033: 1, 14948: 1, 14560: 1, 14507: 1, 14279: 1, 14207: 1, 14171: 1, 14114: 1, 14075: 1, 14042: 1, 14027: 1, 13932: 1, 13841: 1, 13709: 1, 13542: 1, 13412: 1, 13401: 1, 13322: 1, 13285: 1, 13236: 1, 13020: 1, 12903: 1, 12878: 1, 12810: 1, 12802: 1, 12790: 1, 12781: 1, 12769: 1, 12744: 1, 12685: 1, 12677: 1, 12675: 1, 12587: 1, 12521: 1, 12509: 1, 12474: 1, 12376: 1, 12373: 1, 12311: 1, 12300: 1, 12270: 1, 12269: 1, 12225: 1, 12196: 1, 12150: 1, 12089: 1, 12074: 1, 12059: 1, 12012: 1, 12002: 1, 11995: 1, 11953: 1, 11831: 1, 11777: 1, 11770: 1, 11732: 1, 11727: 1, 11609: 1, 11554: 1, 11464: 1, 11455: 1, 11391: 1, 11287: 1, 11268: 1, 11206: 1, 10975: 1, 10946: 1, 10906: 1, 10863: 1, 10840: 1, 10776: 1, 10694: 1, 10658: 1, 10612: 1, 10568: 1, 10492: 1, 10403: 1, 10370: 1, 10360: 1, 10269: 1, 10260: 1, 10259: 1, 10214: 1, 10202: 1, 10176: 1, 10133: 1, 10042: 1, 10040: 1, 10009: 1, 9956: 1, 9941: 1, 9906: 1, 9880: 1, 9855: 1, 9851: 1, 9846: 1, 9790: 1, 9715: 1, 9683: 1, 9675: 1, 9652: 1, 9624: 1, 9619: 1, 9581: 1, 9560: 1, 9517: 1, 9500: 1, 9474: 1, 9436: 1, 9429: 1, 9324: 1, 9267: 1, 9265: 1, 9257: 1, 9236: 1, 9233: 1, 9180: 1, 9158: 1, 9157: 1, 9097: 1, 8970: 1, 8954: 1, 8935: 1, 8877: 1, 8828: 1, 8815: 1, 8812: 1, 8795: 1, 8794: 1, 8782: 1, 8718: 1, 8633: 1, 8628: 1, 8614: 1, 8563: 1, 8513: 1, 8470: 1, 8417: 1, 8323: 1, 8317: 1, 8276: 1, 8271: 1, 8249: 1, 8216: 1, 8203: 1, 8197: 1, 8166: 1, 8161: 1, 8137: 1, 8108: 1, 8085: 1, 8083: 1, 8033: 1, 8013: 1, 8012: 1, 8003: 1, 7999: 1, 7997: 1, 7986: 1, 7963: 1, 7930: 1, 7915: 1, 7912: 1, 7903: 1, 7884: 1, 7863: 1, 7861: 1, 7858: 1, 7831: 1, 7828: 1, 7795: 1, 7775: 1, 7760: 1, 7735: 1, 7688: 1, 7650: 1, 7649: 1, 7614: 1, 7606: 1, 7595: 1, 7585: 1, 7584: 1, 7563: 1, 7529: 1, 7519: 1, 7496: 1, 7475: 1, 7468: 1, 7422: 1, 7406: 1, 7362: 1, 7325: 1, 7291: 1, 7273: 1, 7239: 1, 7187: 1, 7176: 1, 7145: 1, 7141: 1, 7119: 1, 7116: 1, 7110: 1, 7108: 1, 7098: 1, 7094: 1, 7084: 1, 7079: 1, 7047: 1, 7041: 1, 7026: 1, 6997: 1, 6947: 1, 6945: 1, 6940: 1, 6924: 1, 6919: 1, 6910: 1, 6903: 1, 6887: 1, 6833: 1, 6812: 1, 6788: 1, 6771: 1, 6746: 1, 6744: 1, 6741: 1, 6723: 1, 6702: 1, 6695: 1, 6670: 1, 6651: 1, 6632: 1, 6631: 1, 6616: 1, 6607: 1, 6606: 1, 6594: 1, 6581: 1, 6578: 1, 6546: 1, 6514: 1, 6512: 1, 6486: 1, 6482: 1, 6442: 1, 6416: 1, 6395: 1, 6374: 1, 6367: 1, 6364: 1, 6357: 1, 6337: 1, 6335: 1, 6325: 1, 6316: 1, 6293: 1, 6281: 1, 6278: 1, 6274: 1, 6270: 1, 6264: 1, 6243: 1, 6237: 1, 6236: 1, 6235: 1, 6217: 1, 6214: 1, 6204: 1, 6195: 1, 6193: 1, 6186: 1, 6168: 1, 6148: 1, 6130: 1, 6126: 1, 6107: 1, 6100: 1, 6052: 1, 6009: 1, 6007: 1, 5993: 1, 5989: 1, 5970: 1, 5966: 1, 5963: 1, 5958: 1, 5950: 1, 5936: 1, 5933: 1, 5929: 1, 5921: 1, 5908: 1, 5906: 1, 5896: 1, 5893: 1, 5892: 1, 5880: 1, 5862: 1, 5859: 1, 5804: 1, 5800: 1, 5799: 1, 5780: 1, 5779: 1, 5774: 1, 5772: 1, 5756: 1, 5748: 1, 5743: 1, 5731: 1, 5730: 1, 5719: 1, 5718: 1, 5717: 1, 5710: 1, 5655: 1, 5639: 1, 5637: 1, 5609: 1, 5593: 1, 5588: 1, 5583: 1, 5570: 1, 5553: 1, 5549: 1, 5531: 1, 5526: 1, 5524: 1, 5463: 1, 5462: 1, 5445: 1, 5444: 1, 5437: 1, 5431: 1, 5428: 1, 5420: 1, 5419: 1, 5403: 1, 5396: 1, 5394: 1, 5390: 1, 5373: 1, 5360: 1, 5355: 1, 5353: 1, 5351: 1, 5337: 1, 5325: 1, 5321: 1, 5320: 1, 5309: 1, 5283: 1, 5279: 1, 5260: 1, 5250: 1, 5249: 1, 5236: 1, 5225: 1, 5216: 1, 5183: 1, 5177: 1, 5175: 1, 5165: 1, 5139: 1, 5131: 1, 5128: 1, 5089: 1, 5085: 1, 5076: 1, 5059: 1, 5041: 1, 5035: 1, 5030: 1, 5027: 1, 5024: 1, 5000: 1, 4983: 1, 4981: 1, 4968: 1, 4966: 1, 4965: 1, 4959: 1, 4958: 1, 4940: 1, 4933: 1, 4931: 1, 4927: 1, 4925: 1, 4907: 1, 4902: 1, 4895: 1, 4894: 1, 4891: 1, 4880: 1, 4879: 1, 4877: 1, 4873: 1, 4870: 1, 4869: 1, 4864: 1, 4845: 1, 4826: 1, 4822: 1, 4812: 1, 4804: 1, 4801: 1, 4793: 1, 4791: 1, 4785: 1, 4781: 1, 4763: 1, 4759: 1, 4725: 1, 4719: 1, 4716: 1, 4697: 1, 4654: 1, 4653: 1, 4644: 1, 4624: 1, 4613: 1, 4606: 1, 4604: 1, 4601: 1, 4591: 1, 4579: 1, 4572: 1, 4569: 1, 4565: 1, 4550: 1, 4542: 1, 4541: 1, 4526: 1, 4523: 1, 4521: 1, 4519: 1, 4515: 1, 4512: 1, 4508: 1, 4507: 1, 4504: 1, 4503: 1, 4500: 1, 4499: 1, 4481: 1, 4471: 1, 4444: 1, 4439: 1, 4431: 1, 4430: 1, 4427: 1, 4413: 1, 4395: 1, 4385: 1, 4384: 1, 4374: 1, 4371: 1, 4368: 1, 4366: 1, 4325: 1, 4320: 1, 4301: 1, 4286: 1, 4276: 1, 4269: 1, 4265: 1, 4263: 1, 4260: 1, 4253: 1, 4247: 1, 4244: 1, 4225: 1, 4223: 1, 4220: 1, 4210: 1, 4204: 1, 4196: 1, 4180: 1, 4179: 1, 4175: 1, 4174: 1, 4173: 1, 4168: 1, 4163: 1, 4154: 1, 4145: 1, 4141: 1, 4136: 1, 4135: 1, 4128: 1, 4120: 1, 4114: 1, 4100: 1, 4096: 1, 4094: 1, 4093: 1, 4075: 1, 4072: 1, 4071: 1, 4043: 1, 4031: 1, 4030: 1, 4018: 1, 4017: 1, 4013: 1, 3996: 1, 3991: 1, 3981: 1, 3960: 1, 3944: 1, 3939: 1, 3938: 1, 3935: 1, 3933: 1, 3927: 1, 3925: 1, 3914: 1, 3910: 1, 3908: 1, 3907: 1, 3897: 1, 3894: 1, 3887: 1, 3884: 1, 3880: 1, 3877: 1, 3874: 1, 3866: 1, 3863: 1, 3852: 1, 3848: 1, 3844: 1, 3838: 1, 3835: 1, 3825: 1, 3823: 1, 3815: 1, 3811: 1, 3798: 1, 3797: 1, 3795: 1, 3789: 1, 3780: 1, 3764: 1, 3762: 1, 3754: 1, 3752: 1, 3750: 1, 3740: 1, 3739: 1, 3738: 1, 3737: 1, 3735: 1, 3733: 1, 3728: 1, 3726: 1, 3724: 1, 3720: 1, 3714: 1, 3711: 1, 3699: 1, 3698: 1, 3687: 1, 3686: 1, 3672: 1, 3663: 1, 3659: 1, 3658: 1, 3654: 1, 3653: 1, 3647: 1, 3639: 1, 3636: 1, 3635: 1, 3634: 1, 3631: 1, 3619: 1, 3617: 1, 3616: 1, 3610: 1, 3608: 1, 3600: 1, 3599: 1, 3597: 1, 3584: 1, 3583: 1, 3577: 1, 3561: 1, 3560: 1, 3558: 1, 3555: 1, 3535: 1, 3532: 1, 3530: 1, 3527: 1, 3523: 1, 3514: 1, 3511: 1, 3510: 1, 3508: 1, 3506: 1, 3505: 1, 3504: 1, 3489: 1, 3488: 1, 3487: 1, 3485: 1, 3481: 1, 3478: 1, 3476: 1, 3475: 1, 3474: 1, 3473: 1, 3472: 1, 3468: 1, 3463: 1, 3458: 1, 3454: 1, 3452: 1, 3448: 1, 3445: 1, 3439: 1, 3431: 1, 3427: 1, 3426: 1, 3423: 1, 3421: 1, 3418: 1, 3417: 1, 3414: 1, 3413: 1, 3402: 1, 3401: 1, 3392: 1, 3389: 1, 3377: 1, 3376: 1, 3372: 1, 3366: 1, 3362: 1, 3358: 1, 3350: 1, 3346: 1, 3345: 1, 3344: 1, 3340: 1, 3336: 1, 3332: 1, 3324: 1, 3318: 1, 3317: 1, 3306: 1, 3303: 1, 3301: 1, 3300: 1, 3296: 1, 3293: 1, 3290: 1, 3289: 1, 3284: 1, 3264: 1, 3262: 1, 3256: 1, 3255: 1, 3250: 1, 3249: 1, 3244: 1, 3243: 1, 3237: 1, 3235: 1, 3233: 1, 3227: 1, 3226: 1, 3224: 1, 3218: 1, 3215: 1, 3214: 1, 3204: 1, 3203: 1, 3188: 1, 3185: 1, 3183: 1, 3182: 1, 3181: 1, 3175: 1, 3169: 1, 3157: 1, 3147: 1, 3143: 1, 3140: 1, 3137: 1, 3132: 1, 3126: 1, 3122: 1, 3120: 1, 3104: 1, 3098: 1, 3097: 1, 3096: 1, 3094: 1, 3093: 1, 3088: 1, 3073: 1, 3061: 1, 3060: 1, 3045: 1, 3044: 1, 3035: 1, 3031: 1, 3028: 1, 3025: 1, 3019: 1, 3016: 1, 3012: 1, 3007: 1, 3000: 1, 2979: 1, 2973: 1, 2971: 1, 2970: 1, 2969: 1, 2966: 1, 2955: 1, 2950: 1, 2947: 1, 2941: 1, 2939: 1, 2930: 1, 2928: 1, 2923: 1, 2922: 1, 2921: 1, 2918: 1, 2917: 1, 2913: 1, 2911: 1, 2906: 1, 2896: 1, 2890: 1, 2887: 1, 2883: 1, 2877: 1, 2876: 1, 2874: 1, 2868: 1, 2858: 1, 2856: 1, 2851: 1, 2841: 1, 2839: 1, 2837: 1, 2834: 1, 2828: 1, 2825: 1, 2821: 1, 2820: 1, 2816: 1, 2815: 1, 2811: 1, 2810: 1, 2792: 1, 2788: 1, 2787: 1, 2782: 1, 2776: 1, 2768: 1, 2766: 1, 2763: 1, 2762: 1, 2758: 1, 2754: 1, 2751: 1, 2749: 1, 2744: 1, 2743: 1, 2734: 1, 2729: 1, 2725: 1, 2724: 1, 2722: 1, 2716: 1, 2715: 1, 2713: 1, 2710: 1, 2704: 1, 2701: 1, 2698: 1, 2696: 1, 2694: 1, 2687: 1, 2686: 1, 2673: 1, 2671: 1, 2661: 1, 2647: 1, 2645: 1, 2642: 1, 2640: 1, 2639: 1, 2636: 1, 2634: 1, 2632: 1, 2631: 1, 2630: 1, 2625: 1, 2624: 1, 2621: 1, 2617: 1, 2616: 1, 2613: 1, 2611: 1, 2607: 1, 2605: 1, 2603: 1, 2598: 1, 2594: 1, 2587: 1, 2584: 1, 2583: 1, 2577: 1, 2575: 1, 2574: 1, 2566: 1, 2560: 1, 2554: 1, 2552: 1, 2551: 1, 2550: 1, 2549: 1, 2547: 1, 2545: 1, 2544: 1, 2533: 1, 2531: 1, 2527: 1, 2525: 1, 2521: 1, 2520: 1, 2517: 1, 2516: 1, 2514: 1, 2512: 1, 2509: 1, 2505: 1, 2503: 1, 2499: 1, 2498: 1, 2497: 1, 2495: 1, 2483: 1, 2471: 1, 2470: 1, 2469: 1, 2468: 1, 2464: 1, 2461: 1, 2459: 1, 2456: 1, 2447: 1, 2446: 1, 2445: 1, 2443: 1, 2439: 1, 2437: 1, 2434: 1, 2423: 1, 2422: 1, 2418: 1, 2417: 1, 2416: 1, 2413: 1, 2411: 1, 2406: 1, 2404: 1, 2402: 1, 2399: 1, 2396: 1, 2394: 1, 2387: 1, 2386: 1, 2385: 1, 2382: 1, 2381: 1, 2380: 1, 2378: 1, 2376: 1, 2371: 1, 2366: 1, 2364: 1, 2362: 1, 2359: 1, 2358: 1, 2354: 1, 2353: 1, 2352: 1, 2351: 1, 2348: 1, 2347: 1, 2341: 1, 2335: 1, 2334: 1, 2333: 1, 2327: 1, 2324: 1, 2322: 1, 2318: 1, 2316: 1, 2315: 1, 2314: 1, 2310: 1, 2309: 1, 2308: 1, 2303: 1, 2301: 1, 2298: 1, 2288: 1, 2282: 1, 2281: 1, 2280: 1, 2279: 1, 2278: 1, 2276: 1, 2275: 1, 2273: 1, 2272: 1, 2267: 1, 2266: 1, 2261: 1, 2259: 1, 2255: 1, 2254: 1, 2246: 1, 2245: 1, 2244: 1, 2243: 1, 2241: 1, 2229: 1, 2228: 1, 2219: 1, 2218: 1, 2215: 1, 2214: 1, 2212: 1, 2211: 1, 2210: 1, 2207: 1, 2205: 1, 2201: 1, 2200: 1, 2199: 1, 2197: 1, 2193: 1, 2189: 1, 2188: 1, 2183: 1, 2179: 1, 2175: 1, 2170: 1, 2168: 1, 2166: 1, 2161: 1, 2159: 1, 2157: 1, 2156: 1, 2154: 1, 2151: 1, 2149: 1, 2144: 1, 2139: 1, 2137: 1, 2134: 1, 2132: 1, 2120: 1, 2117: 1, 2112: 1, 2105: 1, 2093: 1, 2092: 1, 2089: 1, 2084: 1, 2083: 1, 2082: 1, 2078: 1, 2077: 1, 2076: 1, 2074: 1, 2067: 1, 2065: 1, 2060: 1, 2058: 1, 2057: 1, 2054: 1, 2053: 1, 2047: 1, 2040: 1, 2037: 1, 2031: 1, 2030: 1, 2026: 1, 2022: 1, 2020: 1, 2018: 1, 2015: 1, 2010: 1, 2006: 1, 2004: 1, 2003: 1, 1999: 1, 1993: 1, 1989: 1, 1985: 1, 1980: 1, 1979: 1, 1977: 1, 1975: 1, 1973: 1, 1969: 1, 1967: 1, 1959: 1, 1956: 1, 1951: 1, 1950: 1, 1948: 1, 1945: 1, 1943: 1, 1942: 1, 1941: 1, 1940: 1, 1939: 1, 1938: 1, 1931: 1, 1929: 1, 1926: 1, 1922: 1, 1918: 1, 1917: 1, 1914: 1, 1911: 1, 1909: 1, 1906: 1, 1902: 1, 1895: 1, 1894: 1, 1890: 1, 1889: 1, 1885: 1, 1884: 1, 1883: 1, 1874: 1, 1871: 1, 1870: 1, 1868: 1, 1866: 1, 1865: 1, 1861: 1, 1860: 1, 1859: 1, 1854: 1, 1851: 1, 1848: 1, 1844: 1, 1842: 1, 1841: 1, 1840: 1, 1837: 1, 1836: 1, 1835: 1, 1825: 1, 1824: 1, 1820: 1, 1819: 1, 1818: 1, 1817: 1, 1812: 1, 1811: 1, 1810: 1, 1809: 1, 1801: 1, 1800: 1, 1798: 1, 1795: 1, 1793: 1, 1786: 1, 1780: 1, 1779: 1, 1778: 1, 1777: 1, 1776: 1, 1775: 1, 1774: 1, 1768: 1, 1766: 1, 1763: 1, 1762: 1, 1760: 1, 1759: 1, 1758: 1, 1755: 1, 1754: 1, 1753: 1, 1750: 1, 1746: 1, 1741: 1, 1736: 1, 1735: 1, 1734: 1, 1731: 1, 1730: 1, 1729: 1, 1724: 1, 1722: 1, 1720: 1, 1718: 1, 1715: 1, 1714: 1, 1709: 1, 1707: 1, 1704: 1, 1702: 1, 1700: 1, 1697: 1, 1696: 1, 1694: 1, 1693: 1, 1690: 1, 1688: 1, 1686: 1, 1682: 1, 1680: 1, 1679: 1, 1677: 1, 1676: 1, 1672: 1, 1667: 1, 1664: 1, 1658: 1, 1654: 1, 1645: 1, 1638: 1, 1635: 1, 1631: 1, 1624: 1, 1623: 1, 1620: 1, 1615: 1, 1614: 1, 1613: 1, 1606: 1, 1602: 1, 1600: 1, 1599: 1, 1598: 1, 1595: 1, 1592: 1, 1589: 1, 1582: 1, 1581: 1, 1576: 1, 1571: 1, 1570: 1, 1568: 1, 1566: 1, 1563: 1, 1557: 1, 1556: 1, 1552: 1, 1551: 1, 1547: 1, 1546: 1, 1543: 1, 1539: 1, 1538: 1, 1537: 1, 1536: 1, 1534: 1, 1531: 1, 1530: 1, 1520: 1, 1519: 1, 1518: 1, 1517: 1, 1515: 1, 1505: 1, 1502: 1, 1496: 1, 1494: 1, 1493: 1, 1492: 1, 1485: 1, 1482: 1, 1480: 1, 1479: 1, 1478: 1, 1470: 1, 1467: 1, 1465: 1, 1464: 1, 1462: 1, 1458: 1, 1457: 1, 1453: 1, 1450: 1, 1444: 1, 1441: 1, 1440: 1, 1439: 1, 1432: 1, 1431: 1, 1424: 1, 1422: 1, 1421: 1, 1419: 1, 1416: 1, 1412: 1, 1411: 1, 1410: 1, 1409: 1, 1402: 1, 1401: 1, 1395: 1, 1392: 1, 1389: 1, 1388: 1, 1385: 1, 1369: 1, 1368: 1, 1366: 1, 1365: 1, 1364: 1, 1361: 1, 1358: 1, 1356: 1, 1355: 1, 1354: 1, 1352: 1, 1351: 1, 1350: 1, 1349: 1, 1348: 1, 1344: 1, 1333: 1, 1330: 1, 1326: 1, 1324: 1, 1322: 1, 1318: 1, 1317: 1, 1310: 1, 1309: 1, 1305: 1, 1303: 1, 1294: 1, 1287: 1, 1286: 1, 1279: 1, 1274: 1, 1262: 1, 1258: 1, 1256: 1, 1253: 1, 1249: 1, 1247: 1, 1238: 1, 1231: 1, 1228: 1, 1227: 1, 1222: 1, 1221: 1, 1220: 1, 1214: 1, 1211: 1, 1205: 1, 1197: 1, 1196: 1, 1195: 1, 1193: 1, 1190: 1, 1187: 1, 1185: 1, 1184: 1, 1182: 1, 1175: 1, 1168: 1, 1166: 1, 1164: 1, 1162: 1, 1161: 1, 1160: 1, 1157: 1, 1155: 1, 1153: 1, 1151: 1, 1150: 1, 1146: 1, 1145: 1, 1144: 1, 1142: 1, 1141: 1, 1139: 1, 1135: 1, 1129: 1, 1127: 1, 1126: 1, 1125: 1, 1123: 1, 1120: 1, 1116: 1, 1115: 1, 1113: 1, 1104: 1, 1096: 1, 1095: 1, 1092: 1, 1091: 1, 1090: 1, 1089: 1, 1088: 1, 1084: 1, 1076: 1, 1075: 1, 1070: 1, 1067: 1, 1060: 1, 1052: 1, 1047: 1, 1046: 1, 1044: 1, 1036: 1, 1035: 1, 1033: 1, 1030: 1, 1026: 1, 1021: 1, 1020: 1, 1018: 1, 1016: 1, 1015: 1, 1014: 1, 1012: 1, 1011: 1, 1007: 1, 1006: 1, 989: 1, 978: 1, 965: 1, 958: 1, 941: 1, 939: 1, 933: 1, 919: 1, 915: 1, 908: 1, 903: 1, 865: 1, 819: 1, 796: 1, 778: 1, 746: 1, 740: 1, 720: 1, 718: 1, 677: 1, 664: 1, 649: 1, 619: 1, 492: 1})
    
    In [341]:
    def get_intersec_text(df):
        df_text_vec = CountVectorizer(ngram_range=(1,2))
        df_text_fea = df_text_vec.fit_transform(df['TEXT'])
        df_text_features = df_text_vec.get_feature_names()
    
        df_text_fea_counts = df_text_fea.sum(axis=0).A1
        df_text_fea_dict = dict(zip(list(df_text_features),df_text_fea_counts))
        len1 = len(set(df_text_features))
        len2 = len(set(train_text_features) & set(df_text_features))
        return len1,len2
    
    In [349]:
    len1,len2 = get_intersec_text(test_df)
    print(np.round((len2/len1)*100, 3), "% of word of test data appeared in train data")
    len1,len2 = get_intersec_text(cv_df)
    print(np.round((len2/len1)*100, 3), "% of word of Cross Validation appeared in train data")
    
    73.529 % of word of test data appeared in train data
    74.447 % of word of Cross Validation appeared in train data
    
    In [350]:
    def get_impfeature_names(indices, text, gene, var, no_features):
        gene_count_vec = CountVectorizer(ngram_range=(1,2))
        var_count_vec = CountVectorizer(ngram_range=(1,2))
        text_count_vec = CountVectorizer(ngram_range=(1,2))
        
        gene_vec = gene_count_vec.fit(train_df['Gene'])
        var_vec  = var_count_vec.fit(train_df['Variation'])
        text_vec = text_count_vec.fit(train_df['TEXT'])
        
        fea1_len = len(gene_vec.get_feature_names())
        fea2_len = len(var_count_vec.get_feature_names())
        
        word_present = 0
        for i,v in enumerate(indices):
            if (v < fea1_len):
                word = gene_vec.get_feature_names()[v]
                yes_no = True if word == gene else False
                if yes_no:
                    word_present += 1
                    print(i, "Gene feature [{}] present in test data point [{}]".format(word,yes_no))
            elif (v < fea1_len+fea2_len):
                word = var_vec.get_feature_names()[v-(fea1_len)]
                yes_no = True if word == var else False
                if yes_no:
                    word_present += 1
                    print(i, "variation feature [{}] present in test data point [{}]".format(word,yes_no))
            else:
                word = text_vec.get_feature_names()[v-(fea1_len+fea2_len)]
                yes_no = True if word in text.split() else False
                if yes_no:
                    word_present += 1
                    print(i, "Text feature [{}] present in test data point [{}]".format(word,yes_no))
    
        print("Out of the top ",no_features," features ", word_present, "are present in query point")
    

    Logistic Regression

    . With Class balancing

    Hyper paramter tuning

    In [351]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(class_weight='balanced', alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_balance_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 1e-06
    Log Loss : 1.152433630179926
    for alpha = 1e-05
    Log Loss : 1.0596541833098543
    for alpha = 0.0001
    Log Loss : 0.9853486903200103
    for alpha = 0.001
    Log Loss : 1.002366657267458
    for alpha = 0.01
    Log Loss : 1.1912926322909771
    for alpha = 0.1
    Log Loss : 1.6065582785894972
    for alpha = 1
    Log Loss : 1.7718690918030942
    for alpha = 10
    Log Loss : 1.7908288910423278
    for alpha = 100
    Log Loss : 1.7930810461607123
    
    For values of best alpha =  0.0001 The train log loss is: 0.43498498876120123
    For values of best alpha =  0.0001 The cross validation log loss is: 0.9853486903200103
    For values of best alpha =  0.0001 The test log loss is: 0.9833393189312338
    

    4.1.1.2. Testing the model with best hyper paramters

    In [352]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_balance_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 0.9853486903200103
    Number of mis-classified points : 0.3609022556390977
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.1.2. Without Class balancing

    4.1.2.1. Hyper paramter tuning

    In [162]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 1)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 1e-06
    Log Loss : 1.1333765814986874
    for alpha = 1e-05
    Log Loss : 1.125334580204084
    for alpha = 0.0001
    Log Loss : 1.0185430453197877
    for alpha = 0.001
    Log Loss : 1.061076983874229
    for alpha = 0.01
    Log Loss : 1.322970521049101
    for alpha = 0.1
    Log Loss : 1.6897383787086464
    for alpha = 1
    Log Loss : 1.786066451634542
    
    For values of best alpha =  0.0001 The train log loss is: 0.4284463704490417
    For values of best alpha =  0.0001 The cross validation log loss is: 1.0185430453197877
    For values of best alpha =  0.0001 The test log loss is: 1.0086883905938648
    

    4.1.2.2. Testing model with best hyper parameters

    In [353]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.0185430453197877
    Number of mis-classified points : 0.35150375939849626
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    CONCLUSION

    (a). Procedure Followed :- STEP 1:- Replace CountVectorizer() by CountVectorizer(ngram_range=(1,2)) in all the one hot encoding section of gene , variation and text features to get unigrams and bigrams .

    STEP 2:- Then Apply Logistic Regression

    (b).Table (Model Performances):-

    In [92]:
    # Names of models
    names =['LR With Class Balancing','LR Without Class Balancing']
    
    # Training loss
    train_loss = [0.43498498,0.4284463] 
    
    # Cross Validation loss
    cv_loss = [0.985348690,1.018543045]
    
    # Test loss
    test_loss = [0.98333931,1.00868839]
    
    # Percentage Misclassified points
    misclassified = [ 0.360902255,0.351503759]
    
    alpha=[0.0001,11]
    numbering = [1,2]
    
    # Initializing prettytable
    ptable = PrettyTable()
    
    # Adding columns
    ptable.add_column("S.NO.",numbering)
    ptable.add_column("MODEL",names)
    ptable.add_column("hyperparameter",alpha)
    ptable.add_column("Train_loss",train_loss)
    ptable.add_column("CV_loss",cv_loss)
    ptable.add_column("Test_loss",test_loss)
    ptable.add_column("Misclassified(%)",misclassified)
    
    # Printing the Table
    print(ptable)
    
    +-------+----------------------------+----------------+------------+-------------+------------+------------------+
    | S.NO. |           MODEL            | hyperparameter | Train_loss |   CV_loss   | Test_loss  | Misclassified(%) |
    +-------+----------------------------+----------------+------------+-------------+------------+------------------+
    |   1   |  LR With Class Balancing   |     0.0001     | 0.43498498 |  0.98534869 | 0.98333931 |   0.360902255    |
    |   2   | LR Without Class Balancing |       11       | 0.4284463  | 1.018543045 | 1.00868839 |   0.351503759    |
    +-------+----------------------------+----------------+------------+-------------+------------+------------------+
    

    -------------------------------------------------TASK4-----------------------------------------------------

    Trying different feature engineering techniques discussed in the course to reduce the CV and test log-loss to a value less as possible i.e 1 or near to 1

    NOTE: HERE WE ARE TRYING DIFFERENT ENGINEERING HACKS:

    1--> We also vectorise via TF-IDF with taken all words into consideration from gene,variation and text feature.

    2--> We also vectorise our text via spaCy NLP en_core_web_sm and concat it with all above feature to improve our results.

    -----------------vectorising our text via spaCy NLP en_core_web_sm------------------

    In [42]:
    import pandas as pd
    import matplotlib.pyplot as plt
    import re
    import time
    import warnings
    import numpy as np
    from nltk.corpus import stopwords
    from sklearn.preprocessing import normalize
    from sklearn.feature_extraction.text import CountVectorizer
    from sklearn.feature_extraction.text import TfidfVectorizer
    warnings.filterwarnings("ignore")
    import sys
    import os 
    import pandas as pd
    import numpy as np
    from tqdm import tqdm
    # exctract word2vec vectors
    # https://github.com/explosion/spaCy/issues/1721
    # http://landinghub.visualstudio.com/visual-cpp-build-tools
    import spacy
    
    from sklearn.feature_extraction.text import TfidfVectorizer
    from sklearn.feature_extraction.text import CountVectorizer
    
    In [25]:
    questions = list(train_df['TEXT'])
    tfidf = TfidfVectorizer(lowercase=False, )
    x=tfidf.fit_transform(questions)
    
    # dict key:word and value:tf-idf score
    
    word2tfidf = dict(zip(tfidf.get_feature_names(), tfidf.idf_))
    
    In [96]:
    # building a CountVectorizer with all the words that occured minimum 3 times in train data
    text_vectorizer = TfidfVectorizer(min_df=3)
    train_text_feature_onehotCoding = text_vectorizer.fit_transform(train_df['TEXT'])
    # getting all the feature names (words)
    train_text_features= text_vectorizer.get_feature_names()
    
    # train_text_feature_onehotCoding.sum(axis=0).A1 will sum every row and returns (1*number of features) vector
    train_text_fea_counts = train_text_feature_onehotCoding.sum(axis=0).A1
    
    # zip(list(text_features),text_fea_counts) will zip a word with its number of times it occured
    text_fea_dict = dict(zip(list(train_text_features),train_text_fea_counts))
    
    
    print("Total number of unique words in train data :", len(train_text_features))
    
    Total number of unique words in train data : 42861
    
    In [17]:
    from tqdm import tqdm
    import spacy
    
    In [34]:
    import en_core_web_sm
    # en_vectors_web_lg, which includes over 1 million unique vectors.
    nlp = en_core_web_sm.load()
    
    vecs1 = []
    # https://github.com/noamraph/tqdm
    # tqdm is used to print the progress bar
    for qu1 in tqdm(list(train_df['TEXT'])):
        doc1 = nlp(qu1) 
        #  is the number of dimensions of vectors 
        mean_vec1 = np.zeros([len(doc1),96 ])
        for word1 in doc1:
            # word2vec
            vec1 = word1.vector
            # fetch df score
            try:
                idf = word2tfidf[str(word1)]
            except:
                idf = 0
            # compute final vec
            mean_vec1 += vec1 * idf
        mean_vec1 = mean_vec1.mean(axis=0)
        vecs1.append(mean_vec1)
    df['q1_feats_m'] = list(vecs1)
    
    
    
      0%|                                                                                         | 0/2124 [00:00<?, ?it/s]
    
    
      0%|                                                                              | 1/2124 [00:54<32:20:54, 54.85s/it]
    
    
      0%|                                                                              | 2/2124 [00:56<22:50:20, 38.75s/it]
    
    
      0%|                                                                              | 3/2124 [01:26<21:23:10, 36.30s/it]
    
    
      0%|▏                                                                             | 4/2124 [01:49<19:03:25, 32.36s/it]
    
    
      0%|▏                                                                             | 5/2124 [01:51<13:38:11, 23.17s/it]
    
    
      0%|▏                                                                              | 6/2124 [01:54<9:59:40, 16.99s/it]
    
    
      0%|▎                                                                              | 7/2124 [01:55<7:12:15, 12.25s/it]
    
    
      0%|▎                                                                              | 8/2124 [01:57<5:24:09,  9.19s/it]
    
    
      0%|▎                                                                             | 9/2124 [03:37<21:30:53, 36.62s/it]
    
    
      0%|▎                                                                            | 10/2124 [03:39<15:22:21, 26.18s/it]
    
    
      1%|▍                                                                            | 11/2124 [04:52<23:36:52, 40.23s/it]
    
    
      1%|▍                                                                            | 12/2124 [04:55<16:56:54, 28.89s/it]
    
    
      1%|▍                                                                            | 13/2124 [04:57<12:11:17, 20.79s/it]
    
    
      1%|▌                                                                             | 14/2124 [04:59<8:59:51, 15.35s/it]
    
    
      1%|▌                                                                             | 15/2124 [05:08<7:51:28, 13.41s/it]
    
    
      1%|▌                                                                           | 16/2124 [10:50<65:37:02, 112.06s/it]
    
    
      1%|▌                                                                           | 17/2124 [12:18<61:15:34, 104.67s/it]
    
    
      1%|▋                                                                            | 18/2124 [12:21<43:24:38, 74.21s/it]
    
    
      1%|▋                                                                            | 19/2124 [13:24<41:21:51, 70.74s/it]
    
    
      1%|▋                                                                            | 20/2124 [13:31<30:12:52, 51.70s/it]
    
    
      1%|▊                                                                            | 21/2124 [13:32<21:20:33, 36.54s/it]
    
    
      1%|▊                                                                            | 22/2124 [13:39<16:09:38, 27.68s/it]
    
    
      1%|▊                                                                            | 23/2124 [13:42<11:48:18, 20.23s/it]
    
    
      1%|▉                                                                             | 24/2124 [13:43<8:25:24, 14.44s/it]
    
    
      1%|▉                                                                             | 25/2124 [13:45<6:18:36, 10.82s/it]
    
    
      1%|▉                                                                             | 26/2124 [13:47<4:46:18,  8.19s/it]
    
    
      1%|▉                                                                             | 27/2124 [13:48<3:32:50,  6.09s/it]
    
    
      1%|█                                                                             | 28/2124 [13:54<3:22:18,  5.79s/it]
    
    
      1%|█                                                                             | 29/2124 [13:55<2:32:19,  4.36s/it]
    
    
      1%|█                                                                             | 30/2124 [13:59<2:29:31,  4.28s/it]
    
    
      1%|█▏                                                                            | 31/2124 [14:02<2:15:57,  3.90s/it]
    
    
      2%|█▏                                                                            | 32/2124 [14:04<1:59:09,  3.42s/it]
    
    
      2%|█▏                                                                            | 33/2124 [14:05<1:38:30,  2.83s/it]
    
    
      2%|█▏                                                                            | 34/2124 [14:14<2:40:27,  4.61s/it]
    
    
      2%|█▎                                                                            | 35/2124 [14:25<3:49:56,  6.60s/it]
    
    
      2%|█▎                                                                            | 36/2124 [14:27<2:54:03,  5.00s/it]
    
    
      2%|█▎                                                                            | 37/2124 [14:28<2:19:33,  4.01s/it]
    
    
      2%|█▍                                                                           | 38/2124 [16:23<21:31:04, 37.14s/it]
    
    
      2%|█▍                                                                           | 39/2124 [16:26<15:39:01, 27.02s/it]
    
    
      2%|█▍                                                                           | 40/2124 [16:32<11:53:26, 20.54s/it]
    
    
      2%|█▌                                                                            | 41/2124 [16:34<8:46:52, 15.18s/it]
    
    
      2%|█▌                                                                            | 42/2124 [16:36<6:24:30, 11.08s/it]
    
    
      2%|█▌                                                                            | 43/2124 [16:42<5:31:58,  9.57s/it]
    
    
      2%|█▌                                                                            | 44/2124 [16:43<4:06:37,  7.11s/it]
    
    
      2%|█▋                                                                            | 45/2124 [16:49<3:47:34,  6.57s/it]
    
    
      2%|█▋                                                                            | 46/2124 [16:49<2:45:41,  4.78s/it]
    
    
      2%|█▊                                                                            | 48/2124 [16:56<2:30:06,  4.34s/it]
    
    
      2%|█▊                                                                            | 49/2124 [16:58<2:05:00,  3.61s/it]
    
    
      2%|█▊                                                                            | 50/2124 [17:29<6:54:34, 11.99s/it]
    
    
      2%|█▊                                                                            | 51/2124 [17:32<5:18:36,  9.22s/it]
    
    
      2%|█▉                                                                           | 52/2124 [18:40<15:23:58, 26.76s/it]
    
    
      2%|█▉                                                                           | 53/2124 [18:43<11:23:00, 19.79s/it]
    
    
      3%|█▉                                                                            | 54/2124 [18:44<8:08:04, 14.15s/it]
    
    
      3%|█▉                                                                           | 55/2124 [19:38<14:59:57, 26.10s/it]
    
    
      3%|██                                                                           | 56/2124 [19:44<11:30:22, 20.03s/it]
    
    
      3%|██                                                                            | 57/2124 [19:47<8:30:13, 14.81s/it]
    
    
      3%|██▏                                                                           | 58/2124 [19:48<6:09:43, 10.74s/it]
    
    
      3%|██▏                                                                           | 59/2124 [19:53<5:10:47,  9.03s/it]
    
    
      3%|██▏                                                                           | 60/2124 [19:54<3:47:51,  6.62s/it]
    
    
      3%|██▏                                                                          | 61/2124 [20:42<10:55:08, 19.05s/it]
    
    
      3%|██▎                                                                           | 62/2124 [20:44<8:01:19, 14.01s/it]
    
    
      3%|██▎                                                                           | 63/2124 [20:47<6:05:12, 10.63s/it]
    
    
      3%|██▎                                                                           | 64/2124 [20:49<4:33:50,  7.98s/it]
    
    
      3%|██▍                                                                           | 65/2124 [21:08<6:26:26, 11.26s/it]
    
    
      3%|██▍                                                                           | 66/2124 [21:08<4:36:02,  8.05s/it]
    
    
      3%|██▍                                                                           | 67/2124 [21:10<3:32:45,  6.21s/it]
    
    
      3%|██▍                                                                           | 68/2124 [21:12<2:48:37,  4.92s/it]
    
    
      3%|██▌                                                                           | 69/2124 [21:14<2:16:19,  3.98s/it]
    
    
      3%|██▌                                                                          | 70/2124 [22:56<19:04:41, 33.44s/it]
    
    
      3%|██▌                                                                          | 71/2124 [22:58<13:37:13, 23.88s/it]
    
    
      3%|██▋                                                                           | 72/2124 [22:59<9:45:01, 17.11s/it]
    
    
      3%|██▋                                                                          | 73/2124 [23:41<13:59:22, 24.56s/it]
    
    
      3%|██▋                                                                          | 74/2124 [24:06<14:09:40, 24.87s/it]
    
    
      4%|██▋                                                                          | 75/2124 [24:18<11:57:31, 21.01s/it]
    
    
      4%|██▊                                                                          | 76/2124 [24:59<15:21:41, 27.00s/it]
    
    
      4%|██▊                                                                          | 77/2124 [25:00<10:48:32, 19.01s/it]
    
    
      4%|██▊                                                                           | 78/2124 [25:06<8:34:44, 15.09s/it]
    
    
      4%|██▉                                                                           | 79/2124 [25:07<6:08:36, 10.82s/it]
    
    
      4%|██▉                                                                           | 80/2124 [25:25<7:23:40, 13.02s/it]
    
    
      4%|██▉                                                                           | 81/2124 [25:33<6:36:04, 11.63s/it]
    
    
      4%|███                                                                           | 82/2124 [25:34<4:49:06,  8.49s/it]
    
    
      4%|███                                                                           | 83/2124 [25:37<3:47:08,  6.68s/it]
    
    
      4%|███                                                                           | 84/2124 [25:39<3:02:28,  5.37s/it]
    
    
      4%|███                                                                           | 85/2124 [25:42<2:36:47,  4.61s/it]
    
    
      4%|███▏                                                                          | 86/2124 [25:45<2:17:36,  4.05s/it]
    
    
      4%|███▏                                                                          | 87/2124 [25:54<3:13:50,  5.71s/it]
    
    
      4%|███▏                                                                         | 88/2124 [27:17<16:14:01, 28.70s/it]
    
    
      4%|███▏                                                                         | 89/2124 [27:31<13:46:46, 24.38s/it]
    
    
      4%|███▎                                                                         | 90/2124 [27:40<11:13:52, 19.88s/it]
    
    
      4%|███▎                                                                          | 91/2124 [27:41<7:59:42, 14.16s/it]
    
    
      4%|███▎                                                                         | 92/2124 [28:11<10:37:29, 18.82s/it]
    
    
      4%|███▎                                                                         | 93/2124 [29:11<17:38:03, 31.26s/it]
    
    
      4%|███▍                                                                         | 94/2124 [30:13<22:52:40, 40.57s/it]
    
    
      4%|███▍                                                                         | 95/2124 [30:24<17:46:57, 31.55s/it]
    
    
      5%|███▍                                                                         | 96/2124 [30:32<13:52:18, 24.62s/it]
    
    
      5%|███▌                                                                          | 97/2124 [30:33<9:51:28, 17.51s/it]
    
    
      5%|███▌                                                                          | 98/2124 [30:35<7:10:19, 12.74s/it]
    
    
      5%|███▋                                                                         | 100/2124 [30:37<5:10:06,  9.19s/it]
    
    
      5%|███▋                                                                         | 101/2124 [30:40<4:06:03,  7.30s/it]
    
    
      5%|███▋                                                                         | 102/2124 [30:54<5:16:07,  9.38s/it]
    
    
      5%|███▋                                                                         | 103/2124 [30:55<3:56:06,  7.01s/it]
    
    
      5%|███▊                                                                         | 104/2124 [30:58<3:10:35,  5.66s/it]
    
    
      5%|███▊                                                                         | 105/2124 [31:21<6:04:02, 10.82s/it]
    
    
      5%|███▊                                                                         | 106/2124 [31:24<4:43:59,  8.44s/it]
    
    
      5%|███▉                                                                         | 107/2124 [31:34<5:03:29,  9.03s/it]
    
    
      5%|███▉                                                                         | 108/2124 [31:41<4:43:48,  8.45s/it]
    
    
      5%|███▉                                                                         | 109/2124 [31:42<3:25:37,  6.12s/it]
    
    
      5%|███▉                                                                         | 110/2124 [32:05<6:22:58, 11.41s/it]
    
    
      5%|████                                                                         | 111/2124 [32:09<5:01:27,  8.99s/it]
    
    
      5%|████                                                                         | 112/2124 [32:13<4:09:23,  7.44s/it]
    
    
      5%|████                                                                         | 113/2124 [32:14<3:09:38,  5.66s/it]
    
    
      5%|████▏                                                                        | 114/2124 [32:16<2:29:47,  4.47s/it]
    
    
      5%|████▏                                                                        | 115/2124 [32:22<2:46:18,  4.97s/it]
    
    
      5%|████▏                                                                        | 116/2124 [32:25<2:23:33,  4.29s/it]
    
    
      6%|████▏                                                                        | 117/2124 [32:26<1:56:42,  3.49s/it]
    
    
      6%|████▏                                                                       | 118/2124 [36:05<37:52:33, 67.97s/it]
    
    
      6%|████▎                                                                       | 119/2124 [36:07<26:51:03, 48.21s/it]
    
    
      6%|████▎                                                                       | 120/2124 [36:10<19:17:02, 34.64s/it]
    
    
      6%|████▎                                                                       | 121/2124 [36:13<13:57:34, 25.09s/it]
    
    
      6%|████▎                                                                       | 122/2124 [36:32<13:04:46, 23.52s/it]
    
    
      6%|████▍                                                                        | 123/2124 [36:35<9:33:46, 17.20s/it]
    
    
      6%|████▍                                                                        | 124/2124 [36:36<6:57:03, 12.51s/it]
    
    
      6%|████▌                                                                        | 125/2124 [36:38<5:04:57,  9.15s/it]
    
    
      6%|████▌                                                                        | 126/2124 [36:39<3:46:19,  6.80s/it]
    
    
      6%|████▌                                                                        | 127/2124 [36:42<3:11:25,  5.75s/it]
    
    
      6%|████▋                                                                        | 128/2124 [36:45<2:37:42,  4.74s/it]
    
    
      6%|████▋                                                                        | 129/2124 [36:49<2:32:29,  4.59s/it]
    
    
      6%|████▋                                                                        | 130/2124 [36:52<2:20:58,  4.24s/it]
    
    
      6%|████▋                                                                        | 131/2124 [36:55<2:02:12,  3.68s/it]
    
    
      6%|████▊                                                                        | 132/2124 [36:55<1:32:18,  2.78s/it]
    
    
      6%|████▊                                                                        | 133/2124 [37:04<2:33:26,  4.62s/it]
    
    
      6%|████▊                                                                        | 134/2124 [37:07<2:14:35,  4.06s/it]
    
    
      6%|████▉                                                                        | 135/2124 [37:11<2:15:00,  4.07s/it]
    
    
      6%|████▉                                                                        | 136/2124 [37:14<2:00:38,  3.64s/it]
    
    
      6%|████▉                                                                       | 137/2124 [38:31<14:14:31, 25.80s/it]
    
    
      6%|████▉                                                                       | 138/2124 [39:34<20:15:54, 36.73s/it]
    
    
      7%|████▉                                                                       | 139/2124 [39:59<18:21:09, 33.28s/it]
    
    
      7%|█████                                                                       | 140/2124 [40:10<14:41:53, 26.67s/it]
    
    
      7%|█████                                                                       | 141/2124 [40:43<15:41:35, 28.49s/it]
    
    
      7%|█████                                                                       | 142/2124 [41:25<17:59:54, 32.69s/it]
    
    
      7%|█████                                                                       | 143/2124 [41:36<14:24:52, 26.20s/it]
    
    
      7%|█████▏                                                                      | 144/2124 [41:41<10:49:34, 19.68s/it]
    
    
      7%|█████▎                                                                       | 145/2124 [41:41<7:39:58, 13.95s/it]
    
    
      7%|█████▎                                                                       | 146/2124 [41:49<6:37:18, 12.05s/it]
    
    
      7%|█████▎                                                                       | 147/2124 [42:05<7:14:12, 13.18s/it]
    
    
      7%|█████▎                                                                       | 148/2124 [42:19<7:23:23, 13.46s/it]
    
    
      7%|█████▍                                                                       | 149/2124 [42:27<6:29:05, 11.82s/it]
    
    
      7%|█████▎                                                                      | 150/2124 [43:08<11:17:46, 20.60s/it]
    
    
      7%|█████▍                                                                       | 151/2124 [43:16<9:11:30, 16.77s/it]
    
    
      7%|█████▌                                                                       | 152/2124 [43:18<6:41:38, 12.22s/it]
    
    
      7%|█████▌                                                                       | 153/2124 [43:19<4:56:40,  9.03s/it]
    
    
      7%|█████▌                                                                       | 154/2124 [43:41<7:00:47, 12.82s/it]
    
    
      7%|█████▌                                                                       | 155/2124 [43:43<5:12:47,  9.53s/it]
    
    
      7%|█████▋                                                                       | 156/2124 [43:44<3:52:17,  7.08s/it]
    
    
      7%|█████▌                                                                      | 157/2124 [44:53<14:02:10, 25.69s/it]
    
    
      7%|█████▋                                                                       | 158/2124 [44:54<9:57:18, 18.23s/it]
    
    
      7%|█████▊                                                                       | 159/2124 [44:56<7:20:02, 13.44s/it]
    
    
      8%|█████▋                                                                      | 160/2124 [47:15<27:55:23, 51.18s/it]
    
    
      8%|█████▊                                                                      | 161/2124 [47:23<20:42:32, 37.98s/it]
    
    
      8%|█████▊                                                                      | 162/2124 [47:25<14:51:21, 27.26s/it]
    
    
      8%|█████▊                                                                      | 163/2124 [47:27<10:43:08, 19.68s/it]
    
    
      8%|█████▉                                                                       | 164/2124 [47:28<7:44:14, 14.21s/it]
    
    
      8%|█████▉                                                                       | 165/2124 [47:36<6:42:00, 12.31s/it]
    
    
      8%|██████                                                                       | 166/2124 [47:42<5:33:53, 10.23s/it]
    
    
      8%|██████                                                                       | 167/2124 [47:44<4:17:25,  7.89s/it]
    
    
      8%|██████                                                                       | 168/2124 [47:45<3:08:21,  5.78s/it]
    
    
      8%|██████▏                                                                      | 169/2124 [47:46<2:25:13,  4.46s/it]
    
    
      8%|██████▏                                                                      | 170/2124 [47:56<3:12:37,  5.91s/it]
    
    
      8%|██████▏                                                                      | 171/2124 [47:56<2:18:27,  4.25s/it]
    
    
      8%|██████▏                                                                      | 172/2124 [48:00<2:20:38,  4.32s/it]
    
    
      8%|██████▎                                                                      | 173/2124 [48:13<3:38:28,  6.72s/it]
    
    
      8%|██████▎                                                                      | 174/2124 [48:14<2:40:43,  4.95s/it]
    
    
      8%|██████▎                                                                      | 175/2124 [48:15<2:07:50,  3.94s/it]
    
    
      8%|██████▍                                                                      | 176/2124 [48:17<1:46:33,  3.28s/it]
    
    
      8%|██████▍                                                                      | 177/2124 [48:18<1:30:40,  2.79s/it]
    
    
      8%|██████▍                                                                      | 178/2124 [48:19<1:11:07,  2.19s/it]
    
    
      8%|██████▍                                                                      | 179/2124 [48:22<1:20:57,  2.50s/it]
    
    
      8%|██████▌                                                                      | 180/2124 [48:30<2:06:15,  3.90s/it]
    
    
      9%|██████▌                                                                      | 181/2124 [48:32<1:55:29,  3.57s/it]
    
    
      9%|██████▌                                                                      | 182/2124 [48:44<3:16:55,  6.08s/it]
    
    
      9%|██████▋                                                                      | 183/2124 [48:45<2:26:11,  4.52s/it]
    
    
      9%|██████▋                                                                      | 184/2124 [49:05<4:49:56,  8.97s/it]
    
    
      9%|██████▋                                                                      | 185/2124 [49:06<3:38:34,  6.76s/it]
    
    
      9%|██████▋                                                                      | 186/2124 [49:23<5:11:46,  9.65s/it]
    
    
      9%|██████▊                                                                      | 187/2124 [49:23<3:44:03,  6.94s/it]
    
    
      9%|██████▋                                                                     | 188/2124 [52:16<30:32:01, 56.78s/it]
    
    
      9%|██████▊                                                                     | 189/2124 [52:17<21:31:10, 40.04s/it]
    
    
      9%|██████▊                                                                     | 190/2124 [53:25<26:01:47, 48.45s/it]
    
    
      9%|██████▊                                                                     | 191/2124 [53:27<18:31:59, 34.52s/it]
    
    
      9%|██████▊                                                                     | 192/2124 [53:28<13:05:07, 24.38s/it]
    
    
      9%|██████▉                                                                     | 193/2124 [53:46<12:04:20, 22.51s/it]
    
    
      9%|███████                                                                      | 194/2124 [53:47<8:36:25, 16.05s/it]
    
    
      9%|███████                                                                      | 195/2124 [53:49<6:19:02, 11.79s/it]
    
    
      9%|███████                                                                     | 196/2124 [55:28<20:20:45, 37.99s/it]
    
    
      9%|███████                                                                     | 197/2124 [55:30<14:30:43, 27.11s/it]
    
    
      9%|███████                                                                     | 198/2124 [55:30<10:13:15, 19.10s/it]
    
    
      9%|███████▏                                                                     | 199/2124 [55:33<7:37:02, 14.25s/it]
    
    
      9%|███████▎                                                                     | 200/2124 [55:35<5:33:01, 10.39s/it]
    
    
      9%|███████▎                                                                     | 201/2124 [55:37<4:11:51,  7.86s/it]
    
    
     10%|███████▎                                                                     | 202/2124 [55:51<5:12:46,  9.76s/it]
    
    
     10%|███████▎                                                                     | 203/2124 [55:52<3:52:56,  7.28s/it]
    
    
     10%|███████▍                                                                     | 204/2124 [55:59<3:52:08,  7.25s/it]
    
    
     10%|███████▍                                                                     | 205/2124 [56:01<2:54:49,  5.47s/it]
    
    
     10%|███████▍                                                                     | 206/2124 [56:01<2:06:49,  3.97s/it]
    
    
     10%|███████▌                                                                     | 207/2124 [56:04<1:56:53,  3.66s/it]
    
    
     10%|███████▌                                                                     | 208/2124 [56:05<1:33:54,  2.94s/it]
    
    
     10%|███████▌                                                                     | 209/2124 [56:39<6:24:38, 12.05s/it]
    
    
     10%|███████▌                                                                    | 210/2124 [57:30<12:39:56, 23.82s/it]
    
    
     10%|███████▋                                                                     | 211/2124 [57:31<8:57:51, 16.87s/it]
    
    
     10%|███████▌                                                                    | 212/2124 [58:00<10:54:41, 20.54s/it]
    
    
     10%|███████▋                                                                     | 213/2124 [58:01<7:49:57, 14.76s/it]
    
    
     10%|███████▊                                                                     | 214/2124 [58:02<5:36:42, 10.58s/it]
    
    
     10%|███████▊                                                                     | 215/2124 [58:03<4:04:58,  7.70s/it]
    
    
     10%|███████▋                                                                    | 216/2124 [59:10<13:35:55, 25.66s/it]
    
    
     10%|███████▊                                                                     | 217/2124 [59:12<9:43:30, 18.36s/it]
    
    
     10%|███████▊                                                                    | 218/2124 [59:38<11:02:57, 20.87s/it]
    
    
     10%|███████▉                                                                     | 219/2124 [59:44<8:32:12, 16.13s/it]
    
    
     10%|███████▉                                                                     | 220/2124 [59:49<6:54:09, 13.05s/it]
    
    
     10%|███████▋                                                                  | 221/2124 [1:00:35<12:05:03, 22.86s/it]
    
    
     10%|███████▊                                                                   | 222/2124 [1:00:37<8:45:27, 16.58s/it]
    
    
     10%|███████▊                                                                   | 223/2124 [1:00:48<7:51:32, 14.88s/it]
    
    
     11%|███████▉                                                                   | 224/2124 [1:00:50<5:44:53, 10.89s/it]
    
    
     11%|███████▉                                                                   | 225/2124 [1:00:53<4:28:44,  8.49s/it]
    
    
     11%|███████▉                                                                   | 226/2124 [1:00:57<3:48:39,  7.23s/it]
    
    
     11%|████████                                                                   | 227/2124 [1:01:02<3:26:02,  6.52s/it]
    
    
     11%|████████                                                                   | 228/2124 [1:01:04<2:44:44,  5.21s/it]
    
    
     11%|████████                                                                   | 229/2124 [1:01:07<2:29:37,  4.74s/it]
    
    
     11%|████████                                                                   | 230/2124 [1:01:16<3:06:26,  5.91s/it]
    
    
     11%|████████▏                                                                  | 231/2124 [1:01:18<2:29:04,  4.72s/it]
    
    
     11%|████████▏                                                                  | 232/2124 [1:01:21<2:14:35,  4.27s/it]
    
    
     11%|████████▏                                                                  | 233/2124 [1:01:22<1:42:44,  3.26s/it]
    
    
     11%|████████▎                                                                  | 234/2124 [1:01:26<1:50:07,  3.50s/it]
    
    
     11%|████████▎                                                                  | 235/2124 [1:01:27<1:21:28,  2.59s/it]
    
    
     11%|████████▎                                                                  | 236/2124 [1:01:31<1:37:16,  3.09s/it]
    
    
     11%|████████▎                                                                  | 237/2124 [1:01:32<1:21:54,  2.60s/it]
    
    
     11%|████████▍                                                                  | 238/2124 [1:01:35<1:22:12,  2.62s/it]
    
    
     11%|████████▍                                                                  | 239/2124 [1:01:35<1:00:36,  1.93s/it]
    
    
     11%|████████▍                                                                  | 240/2124 [1:01:38<1:03:53,  2.03s/it]
    
    
     11%|████████▌                                                                  | 241/2124 [1:01:39<1:01:28,  1.96s/it]
    
    
     11%|████████▌                                                                  | 242/2124 [1:01:42<1:05:39,  2.09s/it]
    
    
     11%|████████▍                                                                 | 243/2124 [1:02:41<10:02:59, 19.23s/it]
    
    
     11%|████████▌                                                                  | 244/2124 [1:02:47<7:58:35, 15.27s/it]
    
    
     12%|████████▋                                                                  | 245/2124 [1:02:48<5:42:37, 10.94s/it]
    
    
     12%|████████▋                                                                  | 246/2124 [1:02:52<4:38:21,  8.89s/it]
    
    
     12%|████████▌                                                                 | 247/2124 [1:05:09<24:38:46, 47.27s/it]
    
    
     12%|████████▋                                                                 | 248/2124 [1:05:15<18:11:01, 34.89s/it]
    
    
     12%|████████▋                                                                 | 249/2124 [1:05:16<12:51:39, 24.69s/it]
    
    
     12%|████████▋                                                                 | 250/2124 [1:05:39<12:34:30, 24.16s/it]
    
    
     12%|████████▋                                                                | 251/2124 [1:10:33<54:40:18, 105.08s/it]
    
    
     12%|████████▊                                                                 | 252/2124 [1:10:35<38:33:42, 74.16s/it]
    
    
     12%|████████▊                                                                 | 253/2124 [1:10:39<27:37:29, 53.15s/it]
    
    
     12%|████████▊                                                                 | 254/2124 [1:10:41<19:45:28, 38.04s/it]
    
    
     12%|████████▉                                                                 | 255/2124 [1:10:43<14:02:40, 27.05s/it]
    
    
     12%|████████▉                                                                 | 256/2124 [1:10:49<10:41:57, 20.62s/it]
    
    
     12%|█████████                                                                  | 257/2124 [1:10:51<7:56:33, 15.31s/it]
    
    
     12%|█████████                                                                  | 258/2124 [1:10:56<6:13:21, 12.00s/it]
    
    
     12%|█████████▏                                                                 | 259/2124 [1:11:02<5:22:59, 10.39s/it]
    
    
     12%|█████████▏                                                                 | 260/2124 [1:11:23<6:56:01, 13.39s/it]
    
    
     12%|█████████▏                                                                 | 261/2124 [1:11:25<5:11:43, 10.04s/it]
    
    
     12%|█████████▎                                                                 | 262/2124 [1:11:32<4:43:35,  9.14s/it]
    
    
     12%|█████████▏                                                                | 263/2124 [1:12:53<15:50:25, 30.64s/it]
    
    
     12%|█████████▏                                                                | 264/2124 [1:13:01<12:18:50, 23.83s/it]
    
    
     12%|█████████▎                                                                 | 265/2124 [1:13:05<9:19:27, 18.06s/it]
    
    
     13%|█████████▍                                                                 | 266/2124 [1:13:08<6:54:53, 13.40s/it]
    
    
     13%|█████████▍                                                                 | 267/2124 [1:13:08<4:53:01,  9.47s/it]
    
    
     13%|█████████▍                                                                 | 268/2124 [1:13:15<4:26:15,  8.61s/it]
    
    
     13%|█████████▍                                                                 | 269/2124 [1:13:19<3:49:26,  7.42s/it]
    
    
     13%|█████████▍                                                                | 270/2124 [1:14:26<12:53:32, 25.03s/it]
    
    
     13%|█████████▍                                                                | 271/2124 [1:14:35<10:26:34, 20.29s/it]
    
    
     13%|█████████▌                                                                 | 272/2124 [1:14:36<7:28:57, 14.55s/it]
    
    
     13%|█████████▋                                                                 | 273/2124 [1:14:38<5:29:36, 10.68s/it]
    
    
     13%|█████████▋                                                                 | 274/2124 [1:14:42<4:30:03,  8.76s/it]
    
    
     13%|█████████▋                                                                 | 275/2124 [1:14:46<3:50:51,  7.49s/it]
    
    
     13%|█████████▋                                                                 | 276/2124 [1:14:47<2:45:00,  5.36s/it]
    
    
     13%|█████████▊                                                                 | 277/2124 [1:14:49<2:12:50,  4.32s/it]
    
    
     13%|█████████▊                                                                 | 278/2124 [1:14:52<1:59:32,  3.89s/it]
    
    
     13%|█████████▊                                                                 | 279/2124 [1:14:53<1:36:53,  3.15s/it]
    
    
     13%|█████████▉                                                                 | 280/2124 [1:15:05<2:58:17,  5.80s/it]
    
    
     13%|█████████▉                                                                 | 281/2124 [1:15:06<2:15:54,  4.42s/it]
    
    
     13%|█████████▉                                                                 | 282/2124 [1:15:08<1:54:15,  3.72s/it]
    
    
     13%|█████████▉                                                                 | 283/2124 [1:15:11<1:41:53,  3.32s/it]
    
    
     13%|██████████                                                                 | 284/2124 [1:15:12<1:25:24,  2.79s/it]
    
    
     13%|██████████                                                                 | 285/2124 [1:15:14<1:18:08,  2.55s/it]
    
    
     13%|██████████                                                                 | 286/2124 [1:15:16<1:13:12,  2.39s/it]
    
    
     14%|██████████▏                                                                | 287/2124 [1:15:17<1:01:41,  2.02s/it]
    
    
     14%|██████████▏                                                                | 288/2124 [1:15:19<1:00:25,  1.97s/it]
    
    
     14%|██████████▏                                                                | 289/2124 [1:15:21<1:01:57,  2.03s/it]
    
    
     14%|██████████▏                                                                | 290/2124 [1:15:24<1:04:50,  2.12s/it]
    
    
     14%|██████████▎                                                                | 291/2124 [1:15:29<1:37:41,  3.20s/it]
    
    
     14%|██████████▎                                                                | 292/2124 [1:16:03<6:17:10, 12.35s/it]
    
    
     14%|██████████▎                                                                | 293/2124 [1:16:06<4:45:39,  9.36s/it]
    
    
     14%|██████████▍                                                                | 294/2124 [1:16:21<5:44:24, 11.29s/it]
    
    
     14%|██████████▍                                                                | 295/2124 [1:16:22<4:07:25,  8.12s/it]
    
    
     14%|██████████▍                                                                | 296/2124 [1:16:23<3:00:47,  5.93s/it]
    
    
     14%|██████████▍                                                                | 297/2124 [1:16:28<2:54:37,  5.73s/it]
    
    
     14%|██████████▌                                                                | 298/2124 [1:16:28<2:04:35,  4.09s/it]
    
    
     14%|██████████▌                                                                | 300/2124 [1:16:48<2:55:34,  5.78s/it]
    
    
     14%|██████████▋                                                                | 301/2124 [1:16:51<2:33:28,  5.05s/it]
    
    
     14%|██████████▋                                                                | 302/2124 [1:17:22<6:31:01, 12.88s/it]
    
    
     14%|██████████▋                                                                | 303/2124 [1:17:56<9:41:07, 19.15s/it]
    
    
     14%|██████████▋                                                                | 304/2124 [1:17:58<7:01:56, 13.91s/it]
    
    
     14%|██████████▊                                                                | 305/2124 [1:18:20<8:19:35, 16.48s/it]
    
    
     14%|██████████▊                                                                | 306/2124 [1:18:23<6:15:17, 12.39s/it]
    
    
     14%|██████████▊                                                                | 307/2124 [1:18:24<4:33:45,  9.04s/it]
    
    
     15%|██████████▉                                                                | 308/2124 [1:18:26<3:25:45,  6.80s/it]
    
    
     15%|██████████▉                                                                | 309/2124 [1:18:32<3:23:13,  6.72s/it]
    
    
     15%|██████████▉                                                                | 310/2124 [1:18:35<2:43:14,  5.40s/it]
    
    
     15%|██████████▉                                                                | 311/2124 [1:18:35<1:59:09,  3.94s/it]
    
    
     15%|███████████                                                                | 312/2124 [1:18:37<1:39:38,  3.30s/it]
    
    
     15%|███████████                                                                | 313/2124 [1:18:37<1:13:22,  2.43s/it]
    
    
     15%|███████████▍                                                                 | 314/2124 [1:18:38<58:22,  1.93s/it]
    
    
     15%|███████████▍                                                                 | 315/2124 [1:18:40<55:33,  1.84s/it]
    
    
     15%|███████████▏                                                               | 316/2124 [1:18:43<1:03:05,  2.09s/it]
    
    
     15%|███████████                                                               | 317/2124 [1:23:01<39:41:31, 79.08s/it]
    
    
     15%|███████████                                                               | 318/2124 [1:24:55<44:56:22, 89.58s/it]
    
    
     15%|███████████                                                               | 319/2124 [1:24:57<31:39:06, 63.13s/it]
    
    
     15%|███████████▏                                                              | 320/2124 [1:25:02<22:55:45, 45.76s/it]
    
    
     15%|███████████▏                                                              | 321/2124 [1:25:21<18:52:56, 37.70s/it]
    
    
     15%|███████████▏                                                              | 322/2124 [1:25:23<13:27:51, 26.90s/it]
    
    
     15%|███████████▍                                                               | 323/2124 [1:25:24<9:36:52, 19.22s/it]
    
    
     15%|███████████▍                                                               | 324/2124 [1:25:26<7:06:25, 14.21s/it]
    
    
     15%|███████████▍                                                               | 325/2124 [1:25:29<5:24:37, 10.83s/it]
    
    
     15%|███████████▌                                                               | 326/2124 [1:25:30<3:57:07,  7.91s/it]
    
    
     15%|███████████▌                                                               | 327/2124 [1:25:39<4:00:26,  8.03s/it]
    
    
     15%|███████████▌                                                               | 328/2124 [1:25:41<3:05:42,  6.20s/it]
    
    
     15%|███████████▌                                                               | 329/2124 [1:25:42<2:20:37,  4.70s/it]
    
    
     16%|███████████▋                                                               | 330/2124 [1:25:45<2:02:02,  4.08s/it]
    
    
     16%|███████████▋                                                               | 331/2124 [1:25:45<1:34:07,  3.15s/it]
    
    
     16%|███████████▋                                                               | 332/2124 [1:25:47<1:16:33,  2.56s/it]
    
    
     16%|███████████▊                                                               | 333/2124 [1:26:00<2:55:46,  5.89s/it]
    
    
     16%|███████████▊                                                               | 334/2124 [1:26:12<3:48:12,  7.65s/it]
    
    
     16%|███████████▋                                                              | 335/2124 [1:29:16<30:08:22, 60.65s/it]
    
    
     16%|███████████▋                                                              | 336/2124 [1:29:18<21:19:15, 42.93s/it]
    
    
     16%|███████████▋                                                              | 337/2124 [1:29:20<15:09:15, 30.53s/it]
    
    
     16%|███████████▊                                                              | 338/2124 [1:29:21<10:47:31, 21.75s/it]
    
    
     16%|███████████▉                                                               | 339/2124 [1:29:24<7:57:02, 16.03s/it]
    
    
     16%|████████████                                                               | 340/2124 [1:29:30<6:33:52, 13.25s/it]
    
    
     16%|████████████                                                               | 341/2124 [1:29:31<4:41:39,  9.48s/it]
    
    
     16%|████████████                                                               | 342/2124 [1:29:42<4:54:33,  9.92s/it]
    
    
     16%|████████████                                                               | 343/2124 [1:29:54<5:14:51, 10.61s/it]
    
    
     16%|████████████▏                                                              | 344/2124 [1:29:55<3:46:29,  7.63s/it]
    
    
     16%|████████████▏                                                              | 345/2124 [1:29:57<2:54:24,  5.88s/it]
    
    
     16%|████████████▏                                                              | 346/2124 [1:30:00<2:28:01,  5.00s/it]
    
    
     16%|████████████▎                                                              | 347/2124 [1:30:14<3:47:22,  7.68s/it]
    
    
     16%|████████████▎                                                              | 348/2124 [1:30:15<2:53:35,  5.86s/it]
    
    
     16%|████████████▎                                                              | 349/2124 [1:30:16<2:10:37,  4.42s/it]
    
    
     16%|████████████▎                                                              | 350/2124 [1:30:18<1:46:59,  3.62s/it]
    
    
     17%|████████████▍                                                              | 351/2124 [1:30:20<1:32:52,  3.14s/it]
    
    
     17%|████████████▍                                                              | 352/2124 [1:30:35<3:16:35,  6.66s/it]
    
    
     17%|████████████▍                                                              | 353/2124 [1:30:35<2:23:30,  4.86s/it]
    
    
     17%|████████████▌                                                              | 354/2124 [1:31:00<5:16:22, 10.72s/it]
    
    
     17%|████████████▌                                                              | 355/2124 [1:31:02<3:59:15,  8.12s/it]
    
    
     17%|████████████▌                                                              | 356/2124 [1:31:21<5:35:17, 11.38s/it]
    
    
     17%|████████████▌                                                              | 357/2124 [1:31:24<4:19:46,  8.82s/it]
    
    
     17%|████████████▋                                                              | 358/2124 [1:31:56<7:49:23, 15.95s/it]
    
    
     17%|████████████▋                                                              | 359/2124 [1:31:59<5:47:46, 11.82s/it]
    
    
     17%|████████████▋                                                              | 360/2124 [1:32:00<4:18:43,  8.80s/it]
    
    
     17%|████████████▋                                                              | 361/2124 [1:32:06<3:54:54,  7.99s/it]
    
    
     17%|████████████▊                                                              | 362/2124 [1:32:08<2:57:19,  6.04s/it]
    
    
     17%|████████████▊                                                              | 363/2124 [1:32:09<2:10:07,  4.43s/it]
    
    
     17%|████████████▊                                                              | 364/2124 [1:32:09<1:36:27,  3.29s/it]
    
    
     17%|████████████▉                                                              | 365/2124 [1:32:12<1:33:22,  3.19s/it]
    
    
     17%|████████████▉                                                              | 366/2124 [1:32:13<1:15:15,  2.57s/it]
    
    
     17%|████████████▉                                                              | 367/2124 [1:32:19<1:46:10,  3.63s/it]
    
    
     17%|████████████▉                                                              | 368/2124 [1:32:23<1:42:48,  3.51s/it]
    
    
     17%|█████████████                                                              | 369/2124 [1:32:24<1:19:51,  2.73s/it]
    
    
     17%|█████████████                                                              | 370/2124 [1:33:02<6:29:14, 13.32s/it]
    
    
     17%|█████████████                                                              | 371/2124 [1:33:02<4:35:10,  9.42s/it]
    
    
     18%|████████████▉                                                             | 372/2124 [1:34:47<18:33:18, 38.13s/it]
    
    
     18%|████████████▉                                                             | 373/2124 [1:34:51<13:33:57, 27.89s/it]
    
    
     18%|█████████████▏                                                             | 374/2124 [1:34:54<9:53:15, 20.34s/it]
    
    
     18%|█████████████▏                                                             | 375/2124 [1:34:56<7:18:44, 15.05s/it]
    
    
     18%|█████████████▎                                                             | 376/2124 [1:34:58<5:18:02, 10.92s/it]
    
    
     18%|█████████████▎                                                             | 377/2124 [1:35:02<4:18:00,  8.86s/it]
    
    
     18%|█████████████▎                                                             | 378/2124 [1:35:26<6:29:48, 13.40s/it]
    
    
     18%|█████████████▍                                                             | 379/2124 [1:35:29<4:57:08, 10.22s/it]
    
    
     18%|█████████████▍                                                             | 380/2124 [1:35:29<3:35:19,  7.41s/it]
    
    
     18%|█████████████▍                                                             | 381/2124 [1:35:36<3:26:43,  7.12s/it]
    
    
     18%|█████████████▍                                                             | 382/2124 [1:35:38<2:47:44,  5.78s/it]
    
    
     18%|█████████████▌                                                             | 383/2124 [1:35:40<2:11:37,  4.54s/it]
    
    
     18%|█████████████▌                                                             | 384/2124 [1:35:41<1:40:12,  3.46s/it]
    
    
     18%|█████████████▌                                                             | 385/2124 [1:35:45<1:44:55,  3.62s/it]
    
    
     18%|█████████████▋                                                             | 386/2124 [1:35:46<1:25:03,  2.94s/it]
    
    
     18%|█████████████▋                                                             | 387/2124 [1:35:47<1:07:50,  2.34s/it]
    
    
     18%|█████████████▋                                                             | 388/2124 [1:35:59<2:30:35,  5.20s/it]
    
    
     18%|█████████████▋                                                             | 389/2124 [1:36:01<2:00:59,  4.18s/it]
    
    
     18%|█████████████▊                                                             | 390/2124 [1:36:03<1:40:07,  3.46s/it]
    
    
     18%|█████████████▊                                                             | 391/2124 [1:36:07<1:44:14,  3.61s/it]
    
    
     18%|█████████████▊                                                             | 392/2124 [1:36:23<3:31:16,  7.32s/it]
    
    
     19%|█████████████▉                                                             | 393/2124 [1:36:33<3:57:18,  8.23s/it]
    
    
     19%|█████████████▉                                                             | 394/2124 [1:37:06<7:35:02, 15.78s/it]
    
    
     19%|█████████████▉                                                             | 395/2124 [1:37:07<5:24:10, 11.25s/it]
    
    
     19%|█████████████▉                                                             | 396/2124 [1:37:34<7:40:51, 16.00s/it]
    
    
     19%|██████████████                                                             | 397/2124 [1:37:45<6:52:02, 14.32s/it]
    
    
     19%|██████████████                                                             | 398/2124 [1:38:04<7:32:47, 15.74s/it]
    
    
     19%|██████████████                                                             | 399/2124 [1:38:06<5:36:20, 11.70s/it]
    
    
     19%|██████████████                                                             | 400/2124 [1:38:09<4:17:33,  8.96s/it]
    
    
     19%|██████████████▏                                                            | 401/2124 [1:38:11<3:19:40,  6.95s/it]
    
    
     19%|██████████████▏                                                            | 402/2124 [1:38:13<2:38:10,  5.51s/it]
    
    
     19%|██████████████▏                                                            | 403/2124 [1:38:16<2:14:25,  4.69s/it]
    
    
     19%|██████████████▎                                                            | 404/2124 [1:39:06<8:48:01, 18.42s/it]
    
    
     19%|██████████████▎                                                            | 405/2124 [1:39:08<6:21:09, 13.30s/it]
    
    
     19%|██████████████▎                                                            | 406/2124 [1:39:08<4:29:38,  9.42s/it]
    
    
     19%|██████████████▎                                                            | 407/2124 [1:39:11<3:31:44,  7.40s/it]
    
    
     19%|██████████████▍                                                            | 408/2124 [1:39:27<4:50:19, 10.15s/it]
    
    
     19%|██████████████▍                                                            | 409/2124 [1:40:07<9:02:31, 18.98s/it]
    
    
     19%|██████████████▍                                                            | 410/2124 [1:40:10<6:46:13, 14.22s/it]
    
    
     19%|██████████████▌                                                            | 411/2124 [1:40:11<4:55:57, 10.37s/it]
    
    
     19%|██████████████▌                                                            | 412/2124 [1:40:13<3:40:56,  7.74s/it]
    
    
     19%|██████████████▌                                                            | 413/2124 [1:40:17<3:11:13,  6.71s/it]
    
    
     19%|██████████████▌                                                            | 414/2124 [1:40:21<2:46:56,  5.86s/it]
    
    
     20%|██████████████▋                                                            | 415/2124 [1:40:23<2:10:55,  4.60s/it]
    
    
     20%|██████████████▋                                                            | 416/2124 [1:40:24<1:39:41,  3.50s/it]
    
    
     20%|██████████████▋                                                            | 417/2124 [1:40:28<1:48:15,  3.81s/it]
    
    
     20%|██████████████▊                                                            | 418/2124 [1:40:30<1:31:37,  3.22s/it]
    
    
     20%|██████████████▊                                                            | 419/2124 [1:41:14<7:18:39, 15.44s/it]
    
    
     20%|██████████████▊                                                            | 420/2124 [1:41:17<5:35:55, 11.83s/it]
    
    
     20%|██████████████▊                                                            | 421/2124 [1:41:20<4:14:21,  8.96s/it]
    
    
     20%|██████████████▉                                                            | 422/2124 [1:41:36<5:14:48, 11.10s/it]
    
    
     20%|██████████████▉                                                            | 423/2124 [1:41:40<4:19:10,  9.14s/it]
    
    
     20%|██████████████▉                                                            | 424/2124 [1:41:41<3:08:28,  6.65s/it]
    
    
     20%|███████████████                                                            | 425/2124 [1:41:58<4:36:31,  9.77s/it]
    
    
     20%|███████████████                                                            | 426/2124 [1:42:15<5:33:44, 11.79s/it]
    
    
     20%|███████████████                                                            | 427/2124 [1:42:16<4:08:43,  8.79s/it]
    
    
     20%|███████████████                                                            | 428/2124 [1:42:17<2:56:27,  6.24s/it]
    
    
     20%|███████████████▏                                                           | 429/2124 [1:42:21<2:40:11,  5.67s/it]
    
    
     20%|███████████████▏                                                           | 430/2124 [1:42:23<2:07:53,  4.53s/it]
    
    
     20%|███████████████▏                                                           | 431/2124 [1:42:24<1:36:43,  3.43s/it]
    
    
     20%|███████████████▎                                                           | 432/2124 [1:42:26<1:24:24,  2.99s/it]
    
    
     20%|███████████████▎                                                           | 433/2124 [1:42:36<2:27:45,  5.24s/it]
    
    
     20%|███████████████▎                                                           | 434/2124 [1:42:39<2:05:52,  4.47s/it]
    
    
     20%|███████████████▎                                                           | 435/2124 [1:42:40<1:35:32,  3.39s/it]
    
    
     21%|███████████████▍                                                           | 436/2124 [1:42:47<2:10:04,  4.62s/it]
    
    
     21%|███████████████▏                                                          | 437/2124 [1:44:41<17:28:23, 37.29s/it]
    
    
     21%|███████████████▎                                                          | 438/2124 [1:44:43<12:31:08, 26.73s/it]
    
    
     21%|███████████████▌                                                           | 439/2124 [1:44:44<8:55:51, 19.08s/it]
    
    
     21%|███████████████▌                                                           | 440/2124 [1:44:46<6:33:39, 14.03s/it]
    
    
     21%|███████████████▌                                                           | 441/2124 [1:44:51<5:10:17, 11.06s/it]
    
    
     21%|███████████████▌                                                           | 442/2124 [1:44:56<4:22:28,  9.36s/it]
    
    
     21%|███████████████▋                                                           | 443/2124 [1:45:45<9:55:19, 21.25s/it]
    
    
     21%|███████████████▋                                                           | 444/2124 [1:45:45<6:57:26, 14.91s/it]
    
    
     21%|███████████████▌                                                          | 445/2124 [1:47:23<18:34:55, 39.84s/it]
    
    
     21%|███████████████▌                                                          | 446/2124 [1:47:56<17:38:34, 37.85s/it]
    
    
     21%|███████████████▌                                                          | 447/2124 [1:47:59<12:46:01, 27.41s/it]
    
    
     21%|███████████████▊                                                           | 448/2124 [1:48:03<9:28:35, 20.36s/it]
    
    
     21%|███████████████▊                                                           | 449/2124 [1:48:04<6:43:18, 14.45s/it]
    
    
     21%|███████████████▉                                                           | 450/2124 [1:48:05<4:50:26, 10.41s/it]
    
    
     21%|███████████████▉                                                           | 451/2124 [1:48:06<3:32:45,  7.63s/it]
    
    
     21%|███████████████▉                                                           | 452/2124 [1:48:21<4:36:08,  9.91s/it]
    
    
     21%|███████████████▉                                                           | 453/2124 [1:48:22<3:20:06,  7.19s/it]
    
    
     21%|████████████████                                                           | 454/2124 [1:48:48<5:59:27, 12.91s/it]
    
    
     21%|████████████████                                                           | 455/2124 [1:48:58<5:30:55, 11.90s/it]
    
    
     21%|████████████████                                                           | 456/2124 [1:49:05<4:54:36, 10.60s/it]
    
    
     22%|████████████████▏                                                          | 457/2124 [1:49:07<3:37:26,  7.83s/it]
    
    
     22%|████████████████▏                                                          | 458/2124 [1:49:07<2:36:34,  5.64s/it]
    
    
     22%|████████████████▏                                                          | 459/2124 [1:49:10<2:12:29,  4.77s/it]
    
    
     22%|████████████████▏                                                          | 460/2124 [1:49:55<7:47:06, 16.84s/it]
    
    
     22%|████████████████▎                                                          | 461/2124 [1:49:56<5:38:14, 12.20s/it]
    
    
     22%|████████████████▎                                                          | 462/2124 [1:49:57<4:00:14,  8.67s/it]
    
    
     22%|████████████████▎                                                          | 463/2124 [1:49:58<2:54:41,  6.31s/it]
    
    
     22%|████████████████▍                                                          | 464/2124 [1:50:00<2:24:08,  5.21s/it]
    
    
     22%|████████████████▍                                                          | 465/2124 [1:50:02<1:52:52,  4.08s/it]
    
    
     22%|████████████████▏                                                         | 466/2124 [1:51:36<14:17:02, 31.02s/it]
    
    
     22%|████████████████▎                                                         | 467/2124 [1:51:40<10:36:02, 23.03s/it]
    
    
     22%|████████████████▌                                                          | 468/2124 [1:51:44<7:58:21, 17.33s/it]
    
    
     22%|████████████████▌                                                          | 469/2124 [1:51:47<5:55:04, 12.87s/it]
    
    
     22%|████████████████▌                                                          | 470/2124 [1:51:49<4:31:14,  9.84s/it]
    
    
     22%|████████████████▋                                                          | 471/2124 [1:51:50<3:15:54,  7.11s/it]
    
    
     22%|████████████████▋                                                          | 472/2124 [1:51:50<2:20:07,  5.09s/it]
    
    
     22%|████████████████▋                                                          | 473/2124 [1:51:53<1:57:15,  4.26s/it]
    
    
     22%|████████████████▋                                                          | 474/2124 [1:52:14<4:21:31,  9.51s/it]
    
    
     22%|████████████████▊                                                          | 475/2124 [1:52:19<3:36:17,  7.87s/it]
    
    
     22%|████████████████▊                                                          | 476/2124 [1:52:26<3:29:59,  7.65s/it]
    
    
     22%|████████████████▊                                                          | 477/2124 [1:53:00<7:11:35, 15.72s/it]
    
    
     23%|████████████████▉                                                          | 478/2124 [1:53:01<5:08:15, 11.24s/it]
    
    
     23%|████████████████▉                                                          | 479/2124 [1:53:03<3:49:21,  8.37s/it]
    
    
     23%|████████████████▉                                                          | 480/2124 [1:53:04<2:52:03,  6.28s/it]
    
    
     23%|████████████████▊                                                         | 481/2124 [1:54:35<14:24:13, 31.56s/it]
    
    
     23%|████████████████▊                                                         | 482/2124 [1:55:17<15:50:33, 34.73s/it]
    
    
     23%|████████████████▊                                                         | 483/2124 [1:55:17<11:08:10, 24.43s/it]
    
    
     23%|█████████████████                                                          | 484/2124 [1:55:22<8:28:18, 18.60s/it]
    
    
     23%|█████████████████▏                                                         | 485/2124 [1:55:28<6:42:31, 14.74s/it]
    
    
     23%|█████████████████▏                                                         | 486/2124 [1:55:30<4:56:33, 10.86s/it]
    
    
     23%|████████████████▉                                                         | 487/2124 [1:56:42<13:23:21, 29.44s/it]
    
    
     23%|█████████████████▏                                                         | 488/2124 [1:56:43<9:29:59, 20.90s/it]
    
    
     23%|█████████████████▎                                                         | 489/2124 [1:56:53<7:52:53, 17.35s/it]
    
    
     23%|█████████████████▎                                                         | 490/2124 [1:56:54<5:41:10, 12.53s/it]
    
    
     23%|█████████████████▎                                                         | 491/2124 [1:56:55<4:08:56,  9.15s/it]
    
    
     23%|█████████████████▎                                                         | 492/2124 [1:57:03<4:01:29,  8.88s/it]
    
    
     23%|█████████████████▍                                                         | 493/2124 [1:57:06<3:11:07,  7.03s/it]
    
    
     23%|█████████████████▍                                                         | 494/2124 [1:57:29<5:20:40, 11.80s/it]
    
    
     23%|█████████████████▏                                                        | 495/2124 [2:00:11<25:44:00, 56.87s/it]
    
    
     23%|█████████████████▎                                                        | 496/2124 [2:00:26<19:59:00, 44.19s/it]
    
    
     23%|█████████████████▎                                                        | 497/2124 [2:00:28<14:14:26, 31.51s/it]
    
    
     23%|█████████████████▎                                                        | 498/2124 [2:02:02<22:46:07, 50.41s/it]
    
    
     23%|█████████████████▍                                                        | 499/2124 [2:02:03<16:06:48, 35.70s/it]
    
    
     24%|█████████████████▍                                                        | 500/2124 [2:02:05<11:27:07, 25.39s/it]
    
    
     24%|█████████████████▍                                                        | 501/2124 [2:02:26<10:54:48, 24.21s/it]
    
    
     24%|█████████████████▋                                                         | 502/2124 [2:02:26<7:40:04, 17.02s/it]
    
    
     24%|█████████████████▊                                                         | 503/2124 [2:02:37<6:46:08, 15.03s/it]
    
    
     24%|█████████████████▊                                                         | 504/2124 [2:02:37<4:47:49, 10.66s/it]
    
    
     24%|█████████████████▊                                                         | 505/2124 [2:02:38<3:28:42,  7.73s/it]
    
    
     24%|█████████████████▊                                                         | 506/2124 [2:02:40<2:40:55,  5.97s/it]
    
    
     24%|█████████████████▉                                                         | 507/2124 [2:03:01<4:41:10, 10.43s/it]
    
    
     24%|█████████████████▉                                                         | 508/2124 [2:03:02<3:26:28,  7.67s/it]
    
    
     24%|█████████████████▉                                                         | 509/2124 [2:03:03<2:30:12,  5.58s/it]
    
    
     24%|██████████████████                                                         | 510/2124 [2:03:04<1:57:00,  4.35s/it]
    
    
     24%|██████████████████                                                         | 511/2124 [2:03:07<1:44:20,  3.88s/it]
    
    
     24%|██████████████████                                                         | 512/2124 [2:03:09<1:31:47,  3.42s/it]
    
    
     24%|██████████████████                                                         | 513/2124 [2:03:11<1:14:50,  2.79s/it]
    
    
     24%|██████████████████▏                                                        | 514/2124 [2:03:13<1:09:12,  2.58s/it]
    
    
     24%|█████████████████▉                                                        | 515/2124 [2:04:34<11:40:07, 26.11s/it]
    
    
     24%|██████████████████▏                                                        | 516/2124 [2:04:39<8:52:36, 19.87s/it]
    
    
     24%|██████████████████▎                                                        | 517/2124 [2:05:00<8:58:59, 20.12s/it]
    
    
     24%|██████████████████▎                                                        | 518/2124 [2:05:01<6:27:14, 14.47s/it]
    
    
     24%|██████████████████▎                                                        | 519/2124 [2:05:02<4:41:20, 10.52s/it]
    
    
     24%|██████████████████▎                                                        | 520/2124 [2:05:05<3:35:27,  8.06s/it]
    
    
     25%|██████████████████▍                                                        | 521/2124 [2:05:21<4:40:09, 10.49s/it]
    
    
     25%|██████████████████▍                                                        | 522/2124 [2:05:24<3:38:33,  8.19s/it]
    
    
     25%|██████████████████▍                                                        | 523/2124 [2:05:43<5:06:53, 11.50s/it]
    
    
     25%|██████████████████▌                                                        | 524/2124 [2:05:44<3:40:30,  8.27s/it]
    
    
     25%|██████████████████▌                                                        | 525/2124 [2:05:51<3:34:43,  8.06s/it]
    
    
     25%|██████████████████▌                                                        | 526/2124 [2:05:59<3:30:12,  7.89s/it]
    
    
     25%|██████████████████▌                                                        | 527/2124 [2:06:02<2:55:10,  6.58s/it]
    
    
     25%|██████████████████▋                                                        | 528/2124 [2:06:08<2:49:51,  6.39s/it]
    
    
     25%|██████████████████▋                                                        | 529/2124 [2:06:12<2:25:35,  5.48s/it]
    
    
     25%|██████████████████▋                                                        | 530/2124 [2:07:01<8:13:55, 18.59s/it]
    
    
     25%|██████████████████▊                                                        | 531/2124 [2:07:03<5:59:43, 13.55s/it]
    
    
     25%|██████████████████▊                                                        | 532/2124 [2:07:14<5:46:38, 13.06s/it]
    
    
     25%|██████████████████▌                                                       | 533/2124 [2:08:04<10:40:18, 24.15s/it]
    
    
     25%|██████████████████▊                                                        | 534/2124 [2:08:08<7:55:03, 17.93s/it]
    
    
     25%|██████████████████▉                                                        | 535/2124 [2:08:08<5:34:54, 12.65s/it]
    
    
     25%|██████████████████▉                                                        | 536/2124 [2:08:26<6:16:03, 14.21s/it]
    
    
     25%|██████████████████▉                                                        | 537/2124 [2:08:30<4:53:32, 11.10s/it]
    
    
     25%|██████████████████▉                                                        | 538/2124 [2:08:37<4:22:35,  9.93s/it]
    
    
     25%|███████████████████                                                        | 539/2124 [2:08:40<3:25:39,  7.79s/it]
    
    
     25%|███████████████████                                                        | 540/2124 [2:09:14<6:56:28, 15.78s/it]
    
    
     25%|███████████████████                                                        | 541/2124 [2:09:17<5:09:35, 11.73s/it]
    
    
     26%|███████████████████▏                                                       | 542/2124 [2:09:21<4:13:45,  9.62s/it]
    
    
     26%|███████████████████▏                                                       | 543/2124 [2:09:31<4:10:11,  9.49s/it]
    
    
     26%|███████████████████▏                                                       | 544/2124 [2:09:33<3:12:00,  7.29s/it]
    
    
     26%|███████████████████▏                                                       | 545/2124 [2:09:37<2:46:34,  6.33s/it]
    
    
     26%|███████████████████▎                                                       | 546/2124 [2:10:03<5:27:23, 12.45s/it]
    
    
     26%|███████████████████▎                                                       | 547/2124 [2:10:10<4:39:51, 10.65s/it]
    
    
     26%|███████████████████▎                                                       | 548/2124 [2:10:28<5:39:55, 12.94s/it]
    
    
     26%|███████████████████▍                                                       | 549/2124 [2:10:38<5:13:33, 11.95s/it]
    
    
     26%|███████████████████▍                                                       | 550/2124 [2:10:42<4:14:10,  9.69s/it]
    
    
     26%|███████████████████▍                                                       | 551/2124 [2:11:00<5:16:04, 12.06s/it]
    
    
     26%|███████████████████▍                                                       | 552/2124 [2:11:01<3:51:56,  8.85s/it]
    
    
     26%|███████████████████▌                                                       | 553/2124 [2:11:04<3:03:35,  7.01s/it]
    
    
     26%|███████████████████▎                                                      | 554/2124 [2:12:07<10:20:26, 23.71s/it]
    
    
     26%|███████████████████▌                                                       | 555/2124 [2:12:16<8:26:44, 19.38s/it]
    
    
     26%|███████████████████▋                                                       | 556/2124 [2:12:17<6:06:13, 14.01s/it]
    
    
     26%|███████████████████▍                                                      | 557/2124 [2:14:03<18:05:52, 41.58s/it]
    
    
     26%|███████████████████▍                                                      | 558/2124 [2:14:07<13:07:44, 30.18s/it]
    
    
     26%|███████████████████▋                                                       | 559/2124 [2:14:08<9:20:18, 21.48s/it]
    
    
     26%|███████████████████▊                                                       | 560/2124 [2:14:13<7:11:06, 16.54s/it]
    
    
     26%|███████████████████▊                                                       | 561/2124 [2:14:15<5:15:09, 12.10s/it]
    
    
     26%|███████████████████▊                                                       | 562/2124 [2:14:36<6:25:42, 14.82s/it]
    
    
     27%|███████████████████▉                                                       | 563/2124 [2:14:38<4:48:15, 11.08s/it]
    
    
     27%|███████████████████▉                                                       | 564/2124 [2:14:39<3:27:56,  8.00s/it]
    
    
     27%|███████████████████▉                                                       | 565/2124 [2:14:41<2:39:32,  6.14s/it]
    
    
     27%|███████████████████▉                                                       | 566/2124 [2:14:42<2:00:22,  4.64s/it]
    
    
     27%|████████████████████                                                       | 567/2124 [2:14:46<1:56:51,  4.50s/it]
    
    
     27%|████████████████████                                                       | 568/2124 [2:14:48<1:36:15,  3.71s/it]
    
    
     27%|████████████████████                                                       | 569/2124 [2:14:50<1:20:23,  3.10s/it]
    
    
     27%|████████████████████▏                                                      | 570/2124 [2:14:57<1:53:00,  4.36s/it]
    
    
     27%|████████████████████▏                                                      | 571/2124 [2:15:00<1:40:31,  3.88s/it]
    
    
     27%|████████████████████▏                                                      | 573/2124 [2:15:28<2:59:41,  6.95s/it]
    
    
     27%|████████████████████▎                                                      | 574/2124 [2:15:31<2:27:01,  5.69s/it]
    
    
     27%|████████████████████▎                                                      | 575/2124 [2:15:38<2:36:32,  6.06s/it]
    
    
     27%|████████████████████▎                                                      | 576/2124 [2:15:47<2:59:00,  6.94s/it]
    
    
     27%|████████████████████▎                                                      | 577/2124 [2:15:52<2:48:01,  6.52s/it]
    
    
     27%|████████████████████▍                                                      | 578/2124 [2:15:53<2:03:59,  4.81s/it]
    
    
     27%|████████████████████▏                                                     | 579/2124 [2:18:07<18:38:32, 43.44s/it]
    
    
     27%|████████████████████▏                                                     | 580/2124 [2:18:08<13:14:09, 30.86s/it]
    
    
     27%|████████████████████▌                                                      | 581/2124 [2:18:09<9:20:17, 21.79s/it]
    
    
     27%|████████████████████▌                                                      | 582/2124 [2:18:10<6:38:02, 15.49s/it]
    
    
     27%|████████████████████▌                                                      | 583/2124 [2:18:11<4:50:50, 11.32s/it]
    
    
     27%|████████████████████▌                                                      | 584/2124 [2:18:12<3:29:26,  8.16s/it]
    
    
     28%|████████████████████▋                                                      | 585/2124 [2:18:15<2:50:56,  6.66s/it]
    
    
     28%|████████████████████▋                                                      | 586/2124 [2:18:16<2:05:29,  4.90s/it]
    
    
     28%|████████████████████▋                                                      | 587/2124 [2:18:17<1:37:36,  3.81s/it]
    
    
     28%|████████████████████▊                                                      | 588/2124 [2:18:20<1:28:49,  3.47s/it]
    
    
     28%|████████████████████▊                                                      | 589/2124 [2:18:23<1:26:55,  3.40s/it]
    
    
     28%|████████████████████▊                                                      | 590/2124 [2:18:59<5:37:19, 13.19s/it]
    
    
     28%|████████████████████▊                                                      | 591/2124 [2:19:06<4:48:31, 11.29s/it]
    
    
     28%|████████████████████▉                                                      | 592/2124 [2:19:22<5:23:40, 12.68s/it]
    
    
     28%|████████████████████▉                                                      | 593/2124 [2:19:26<4:20:40, 10.22s/it]
    
    
     28%|████████████████████▉                                                      | 594/2124 [2:19:56<6:47:29, 15.98s/it]
    
    
     28%|█████████████████████                                                      | 595/2124 [2:19:57<4:56:52, 11.65s/it]
    
    
     28%|█████████████████████                                                      | 596/2124 [2:19:59<3:36:43,  8.51s/it]
    
    
     28%|█████████████████████                                                      | 597/2124 [2:20:24<5:48:03, 13.68s/it]
    
    
     28%|█████████████████████                                                      | 598/2124 [2:20:52<7:32:21, 17.79s/it]
    
    
     28%|█████████████████████▏                                                     | 599/2124 [2:21:00<6:21:40, 15.02s/it]
    
    
     28%|█████████████████████▏                                                     | 600/2124 [2:21:03<4:47:40, 11.33s/it]
    
    
     28%|█████████████████████▏                                                     | 601/2124 [2:21:05<3:33:31,  8.41s/it]
    
    
     28%|█████████████████████▎                                                     | 602/2124 [2:21:08<2:53:41,  6.85s/it]
    
    
     28%|█████████████████████▎                                                     | 603/2124 [2:21:17<3:10:01,  7.50s/it]
    
    
     28%|█████████████████████▎                                                     | 604/2124 [2:21:31<4:02:31,  9.57s/it]
    
    
     28%|█████████████████████▎                                                     | 605/2124 [2:21:34<3:08:51,  7.46s/it]
    
    
     29%|█████████████████████                                                     | 606/2124 [2:23:52<19:44:20, 46.81s/it]
    
    
     29%|█████████████████████▏                                                    | 607/2124 [2:23:53<13:54:45, 33.02s/it]
    
    
     29%|█████████████████████▏                                                    | 608/2124 [2:24:10<11:54:43, 28.29s/it]
    
    
     29%|█████████████████████▌                                                     | 609/2124 [2:24:17<9:07:59, 21.70s/it]
    
    
     29%|█████████████████████▌                                                     | 610/2124 [2:24:19<6:42:11, 15.94s/it]
    
    
     29%|█████████████████████▌                                                     | 611/2124 [2:24:26<5:33:04, 13.21s/it]
    
    
     29%|█████████████████████▌                                                     | 612/2124 [2:24:28<4:06:03,  9.76s/it]
    
    
     29%|█████████████████████▋                                                     | 613/2124 [2:24:29<3:04:11,  7.31s/it]
    
    
     29%|█████████████████████▋                                                     | 614/2124 [2:24:31<2:17:43,  5.47s/it]
    
    
     29%|█████████████████████▋                                                     | 615/2124 [2:24:55<4:43:15, 11.26s/it]
    
    
     29%|█████████████████████▊                                                     | 616/2124 [2:25:08<4:56:28, 11.80s/it]
    
    
     29%|█████████████████████▊                                                     | 617/2124 [2:25:14<4:05:54,  9.79s/it]
    
    
     29%|█████████████████████▊                                                     | 618/2124 [2:25:20<3:37:19,  8.66s/it]
    
    
     29%|█████████████████████▊                                                     | 619/2124 [2:25:22<2:51:31,  6.84s/it]
    
    
     29%|█████████████████████▉                                                     | 620/2124 [2:25:23<2:06:25,  5.04s/it]
    
    
     29%|█████████████████████▉                                                     | 621/2124 [2:25:24<1:39:11,  3.96s/it]
    
    
     29%|█████████████████████▉                                                     | 622/2124 [2:25:41<3:12:23,  7.69s/it]
    
    
     29%|█████████████████████▉                                                     | 623/2124 [2:25:42<2:23:50,  5.75s/it]
    
    
     29%|██████████████████████                                                     | 624/2124 [2:25:46<2:09:44,  5.19s/it]
    
    
     29%|██████████████████████                                                     | 625/2124 [2:25:46<1:34:15,  3.77s/it]
    
    
     29%|██████████████████████                                                     | 626/2124 [2:26:42<8:00:27, 19.24s/it]
    
    
     30%|██████████████████████▏                                                    | 627/2124 [2:26:44<5:53:37, 14.17s/it]
    
    
     30%|██████████████████████▏                                                    | 628/2124 [2:26:45<4:16:04, 10.27s/it]
    
    
     30%|██████████████████████▏                                                    | 629/2124 [2:26:46<3:04:04,  7.39s/it]
    
    
     30%|██████████████████████▏                                                    | 630/2124 [2:26:48<2:27:57,  5.94s/it]
    
    
     30%|██████████████████████▎                                                    | 631/2124 [2:26:56<2:41:14,  6.48s/it]
    
    
     30%|██████████████████████▎                                                    | 632/2124 [2:26:58<2:09:25,  5.20s/it]
    
    
     30%|██████████████████████▎                                                    | 633/2124 [2:27:17<3:48:29,  9.19s/it]
    
    
     30%|██████████████████████                                                    | 634/2124 [2:28:24<10:58:24, 26.51s/it]
    
    
     30%|██████████████████████                                                    | 635/2124 [2:28:55<11:34:04, 27.97s/it]
    
    
     30%|██████████████████████▍                                                    | 636/2124 [2:29:05<9:18:25, 22.52s/it]
    
    
     30%|██████████████████████▍                                                    | 637/2124 [2:29:08<6:55:48, 16.78s/it]
    
    
     30%|██████████████████████▏                                                   | 638/2124 [2:30:00<11:15:37, 27.28s/it]
    
    
     30%|██████████████████████▎                                                   | 640/2124 [2:31:51<14:41:42, 35.65s/it]
    
    
     30%|██████████████████████▎                                                   | 641/2124 [2:31:51<10:24:04, 25.25s/it]
    
    
     30%|██████████████████████▋                                                    | 642/2124 [2:32:03<8:42:17, 21.15s/it]
    
    
     30%|██████████████████████▋                                                    | 643/2124 [2:32:05<6:21:45, 15.47s/it]
    
    
     30%|██████████████████████▋                                                    | 644/2124 [2:32:07<4:42:52, 11.47s/it]
    
    
     30%|██████████████████████▊                                                    | 645/2124 [2:32:14<4:09:06, 10.11s/it]
    
    
     30%|██████████████████████▊                                                    | 646/2124 [2:32:22<3:48:59,  9.30s/it]
    
    
     30%|██████████████████████▊                                                    | 647/2124 [2:32:40<4:51:45, 11.85s/it]
    
    
     31%|██████████████████████▉                                                    | 648/2124 [2:32:43<3:47:53,  9.26s/it]
    
    
     31%|██████████████████████▉                                                    | 649/2124 [2:32:47<3:12:42,  7.84s/it]
    
    
     31%|██████████████████████▉                                                    | 650/2124 [2:32:55<3:08:27,  7.67s/it]
    
    
     31%|██████████████████████▉                                                    | 651/2124 [2:32:56<2:23:33,  5.85s/it]
    
    
     31%|███████████████████████                                                    | 652/2124 [2:33:04<2:38:55,  6.48s/it]
    
    
     31%|███████████████████████                                                    | 653/2124 [2:33:28<4:43:30, 11.56s/it]
    
    
     31%|███████████████████████                                                    | 654/2124 [2:33:31<3:40:18,  8.99s/it]
    
    
     31%|███████████████████████▏                                                   | 655/2124 [2:34:22<8:54:56, 21.85s/it]
    
    
     31%|███████████████████████▏                                                   | 656/2124 [2:34:25<6:30:21, 15.95s/it]
    
    
     31%|███████████████████████▏                                                   | 657/2124 [2:34:27<4:54:14, 12.03s/it]
    
    
     31%|███████████████████████▏                                                   | 658/2124 [2:34:29<3:35:08,  8.81s/it]
    
    
     31%|███████████████████████▎                                                   | 659/2124 [2:34:36<3:22:40,  8.30s/it]
    
    
     31%|███████████████████████▎                                                   | 660/2124 [2:34:41<2:58:59,  7.34s/it]
    
    
     31%|███████████████████████▍                                                   | 662/2124 [2:34:44<2:15:10,  5.55s/it]
    
    
     31%|███████████████████████▍                                                   | 663/2124 [2:34:46<1:52:49,  4.63s/it]
    
    
     31%|███████████████████████▍                                                   | 664/2124 [2:34:49<1:38:22,  4.04s/it]
    
    
     31%|███████████████████████▍                                                   | 665/2124 [2:34:51<1:26:19,  3.55s/it]
    
    
     31%|███████████████████████▌                                                   | 666/2124 [2:34:52<1:06:15,  2.73s/it]
    
    
     31%|███████████████████████▌                                                   | 667/2124 [2:34:55<1:06:53,  2.75s/it]
    
    
     31%|████████████████████████▏                                                    | 668/2124 [2:34:55<48:56,  2.02s/it]
    
    
     31%|████████████████████████▎                                                    | 669/2124 [2:34:56<42:11,  1.74s/it]
    
    
     32%|███████████████████████▋                                                   | 670/2124 [2:35:06<1:40:32,  4.15s/it]
    
    
     32%|███████████████████████▋                                                   | 671/2124 [2:35:07<1:15:10,  3.10s/it]
    
    
     32%|███████████████████████▋                                                   | 672/2124 [2:35:14<1:42:31,  4.24s/it]
    
    
     32%|███████████████████████▊                                                   | 673/2124 [2:35:17<1:33:23,  3.86s/it]
    
    
     32%|███████████████████████▊                                                   | 674/2124 [2:35:22<1:42:23,  4.24s/it]
    
    
     32%|███████████████████████▊                                                   | 675/2124 [2:35:23<1:23:07,  3.44s/it]
    
    
     32%|███████████████████████▊                                                   | 676/2124 [2:35:30<1:44:30,  4.33s/it]
    
    
     32%|███████████████████████▉                                                   | 677/2124 [2:35:35<1:53:50,  4.72s/it]
    
    
     32%|███████████████████████▉                                                   | 678/2124 [2:35:37<1:29:48,  3.73s/it]
    
    
     32%|███████████████████████▉                                                   | 679/2124 [2:35:39<1:15:55,  3.15s/it]
    
    
     32%|████████████████████████                                                   | 680/2124 [2:35:41<1:10:01,  2.91s/it]
    
    
     32%|████████████████████████                                                   | 681/2124 [2:35:48<1:40:25,  4.18s/it]
    
    
     32%|████████████████████████                                                   | 682/2124 [2:35:50<1:26:53,  3.62s/it]
    
    
     32%|████████████████████████                                                   | 683/2124 [2:35:55<1:32:23,  3.85s/it]
    
    
     32%|████████████████████████▏                                                  | 684/2124 [2:35:56<1:16:02,  3.17s/it]
    
    
     32%|████████████████████████▊                                                    | 685/2124 [2:35:57<55:17,  2.31s/it]
    
    
     32%|████████████████████████▊                                                    | 686/2124 [2:35:59<58:52,  2.46s/it]
    
    
     32%|████████████████████████▉                                                    | 687/2124 [2:36:02<58:23,  2.44s/it]
    
    
     32%|████████████████████████▎                                                  | 688/2124 [2:36:13<2:00:46,  5.05s/it]
    
    
     32%|████████████████████████▎                                                  | 689/2124 [2:36:14<1:33:31,  3.91s/it]
    
    
     32%|████████████████████████▎                                                  | 690/2124 [2:36:32<3:12:42,  8.06s/it]
    
    
     33%|████████████████████████▍                                                  | 691/2124 [2:36:34<2:28:18,  6.21s/it]
    
    
     33%|████████████████████████▍                                                  | 692/2124 [2:36:34<1:48:15,  4.54s/it]
    
    
     33%|████████████████████████▍                                                  | 693/2124 [2:36:36<1:24:53,  3.56s/it]
    
    
     33%|████████████████████████▌                                                  | 694/2124 [2:36:40<1:32:07,  3.87s/it]
    
    
     33%|████████████████████████▌                                                  | 695/2124 [2:37:05<3:57:47,  9.98s/it]
    
    
     33%|████████████████████████▌                                                  | 696/2124 [2:37:07<3:06:59,  7.86s/it]
    
    
     33%|████████████████████████▌                                                  | 697/2124 [2:37:10<2:31:40,  6.38s/it]
    
    
     33%|████████████████████████▋                                                  | 698/2124 [2:37:11<1:50:51,  4.66s/it]
    
    
     33%|████████████████████████▋                                                  | 699/2124 [2:37:12<1:27:17,  3.68s/it]
    
    
     33%|████████████████████████▋                                                  | 700/2124 [2:37:42<4:28:54, 11.33s/it]
    
    
     33%|████████████████████████▊                                                  | 701/2124 [2:38:38<9:45:42, 24.70s/it]
    
    
     33%|████████████████████████▊                                                  | 702/2124 [2:38:50<8:17:09, 20.98s/it]
    
    
     33%|████████████████████████▊                                                  | 703/2124 [2:39:02<7:11:32, 18.22s/it]
    
    
     33%|████████████████████████▊                                                  | 704/2124 [2:39:03<5:13:39, 13.25s/it]
    
    
     33%|████████████████████████▉                                                  | 705/2124 [2:39:05<3:51:22,  9.78s/it]
    
    
     33%|████████████████████████▉                                                  | 706/2124 [2:39:07<2:57:51,  7.53s/it]
    
    
     33%|████████████████████████▉                                                  | 707/2124 [2:39:08<2:13:17,  5.64s/it]
    
    
     33%|█████████████████████████                                                  | 708/2124 [2:39:14<2:11:52,  5.59s/it]
    
    
     33%|█████████████████████████                                                  | 709/2124 [2:39:14<1:36:09,  4.08s/it]
    
    
     33%|█████████████████████████                                                  | 710/2124 [2:39:21<1:52:54,  4.79s/it]
    
    
     33%|█████████████████████████                                                  | 711/2124 [2:39:24<1:38:32,  4.18s/it]
    
    
     34%|█████████████████████████▏                                                 | 712/2124 [2:39:33<2:15:11,  5.74s/it]
    
    
     34%|█████████████████████████▏                                                 | 713/2124 [2:39:38<2:10:01,  5.53s/it]
    
    
     34%|█████████████████████████▏                                                 | 714/2124 [2:39:40<1:43:42,  4.41s/it]
    
    
     34%|█████████████████████████▏                                                 | 715/2124 [2:39:40<1:14:32,  3.17s/it]
    
    
     34%|█████████████████████████▉                                                   | 716/2124 [2:39:41<57:36,  2.46s/it]
    
    
     34%|█████████████████████████▉                                                   | 717/2124 [2:39:42<47:23,  2.02s/it]
    
    
     34%|█████████████████████████▎                                                 | 718/2124 [2:40:44<7:50:32, 20.08s/it]
    
    
     34%|█████████████████████████                                                 | 719/2124 [2:41:59<14:15:39, 36.54s/it]
    
    
     34%|█████████████████████████                                                 | 720/2124 [2:42:00<10:03:40, 25.80s/it]
    
    
     34%|█████████████████████████▍                                                 | 721/2124 [2:42:01<7:13:21, 18.53s/it]
    
    
     34%|█████████████████████████▍                                                 | 722/2124 [2:42:13<6:23:56, 16.43s/it]
    
    
     34%|█████████████████████████▌                                                 | 723/2124 [2:42:16<4:48:38, 12.36s/it]
    
    
     34%|█████████████████████████▌                                                 | 724/2124 [2:42:19<3:40:36,  9.45s/it]
    
    
     34%|█████████████████████████▌                                                 | 725/2124 [2:42:19<2:40:05,  6.87s/it]
    
    
     34%|█████████████████████████▋                                                 | 726/2124 [2:42:21<2:01:04,  5.20s/it]
    
    
     34%|█████████████████████████▎                                                | 727/2124 [2:43:36<10:11:54, 26.28s/it]
    
    
     34%|█████████████████████████▋                                                 | 728/2124 [2:43:39<7:26:38, 19.20s/it]
    
    
     34%|█████████████████████████▋                                                 | 729/2124 [2:44:02<7:57:13, 20.53s/it]
    
    
     34%|█████████████████████████▊                                                 | 730/2124 [2:44:03<5:36:23, 14.48s/it]
    
    
     34%|█████████████████████████▊                                                 | 731/2124 [2:44:04<4:05:32, 10.58s/it]
    
    
     34%|█████████████████████████▊                                                 | 732/2124 [2:44:12<3:42:46,  9.60s/it]
    
    
     35%|█████████████████████████▉                                                 | 733/2124 [2:44:40<5:53:08, 15.23s/it]
    
    
     35%|█████████████████████████▉                                                 | 734/2124 [2:44:47<4:58:49, 12.90s/it]
    
    
     35%|█████████████████████████▉                                                 | 735/2124 [2:44:48<3:30:46,  9.10s/it]
    
    
     35%|█████████████████████████▉                                                 | 736/2124 [2:44:49<2:34:05,  6.66s/it]
    
    
     35%|██████████████████████████                                                 | 737/2124 [2:44:50<2:00:41,  5.22s/it]
    
    
     35%|██████████████████████████                                                 | 738/2124 [2:44:53<1:40:58,  4.37s/it]
    
    
     35%|██████████████████████████                                                 | 739/2124 [2:45:18<4:04:09, 10.58s/it]
    
    
     35%|██████████████████████████▏                                                | 740/2124 [2:45:19<3:01:14,  7.86s/it]
    
    
     35%|██████████████████████████▏                                                | 741/2124 [2:45:23<2:34:23,  6.70s/it]
    
    
     35%|██████████████████████████▏                                                | 742/2124 [2:45:24<1:54:50,  4.99s/it]
    
    
     35%|██████████████████████████▏                                                | 743/2124 [2:45:26<1:32:29,  4.02s/it]
    
    
     35%|██████████████████████████▎                                                | 744/2124 [2:45:27<1:07:58,  2.96s/it]
    
    
     35%|██████████████████████████▎                                                | 745/2124 [2:45:30<1:12:44,  3.17s/it]
    
    
     35%|██████████████████████████▎                                                | 746/2124 [2:45:34<1:14:41,  3.25s/it]
    
    
     35%|██████████████████████████▍                                                | 747/2124 [2:45:36<1:07:36,  2.95s/it]
    
    
     35%|██████████████████████████▍                                                | 748/2124 [2:45:39<1:05:22,  2.85s/it]
    
    
     35%|███████████████████████████▏                                                 | 749/2124 [2:45:39<51:09,  2.23s/it]
    
    
     35%|██████████████████████████▍                                                | 750/2124 [2:45:46<1:24:19,  3.68s/it]
    
    
     35%|██████████████████████████▌                                                | 751/2124 [2:45:49<1:14:47,  3.27s/it]
    
    
     35%|██████████████████████████▌                                                | 752/2124 [2:46:18<4:10:23, 10.95s/it]
    
    
     35%|██████████████████████████▌                                                | 753/2124 [2:46:50<6:36:09, 17.34s/it]
    
    
     35%|██████████████████████████▌                                                | 754/2124 [2:46:51<4:46:09, 12.53s/it]
    
    
     36%|██████████████████████████▋                                                | 755/2124 [2:46:54<3:39:15,  9.61s/it]
    
    
     36%|██████████████████████████▋                                                | 756/2124 [2:46:56<2:44:56,  7.23s/it]
    
    
     36%|██████████████████████████▋                                                | 757/2124 [2:46:57<2:00:45,  5.30s/it]
    
    
     36%|██████████████████████████▊                                                | 758/2124 [2:46:58<1:35:04,  4.18s/it]
    
    
     36%|██████████████████████████▊                                                | 759/2124 [2:46:59<1:14:02,  3.25s/it]
    
    
     36%|██████████████████████████▊                                                | 760/2124 [2:48:01<7:50:11, 20.68s/it]
    
    
     36%|██████████████████████████▊                                                | 761/2124 [2:48:01<5:32:33, 14.64s/it]
    
    
     36%|██████████████████████████▉                                                | 762/2124 [2:48:10<4:52:50, 12.90s/it]
    
    
     36%|██████████████████████████▉                                                | 763/2124 [2:48:13<3:42:58,  9.83s/it]
    
    
     36%|██████████████████████████▌                                               | 764/2124 [2:50:00<14:49:56, 39.26s/it]
    
    
     36%|██████████████████████████▋                                               | 765/2124 [2:50:02<10:33:05, 27.95s/it]
    
    
     36%|███████████████████████████                                                | 766/2124 [2:50:03<7:26:33, 19.73s/it]
    
    
     36%|███████████████████████████                                                | 767/2124 [2:50:14<6:29:28, 17.22s/it]
    
    
     36%|███████████████████████████                                                | 768/2124 [2:50:18<4:58:46, 13.22s/it]
    
    
     36%|███████████████████████████▏                                               | 769/2124 [2:50:22<3:56:42, 10.48s/it]
    
    
     36%|███████████████████████████▏                                               | 770/2124 [2:50:31<3:47:18, 10.07s/it]
    
    
     36%|███████████████████████████▏                                               | 771/2124 [2:50:47<4:29:00, 11.93s/it]
    
    
     36%|██████████████████████████▉                                               | 772/2124 [2:51:49<10:04:34, 26.83s/it]
    
    
     36%|███████████████████████████▎                                               | 773/2124 [2:51:59<8:07:55, 21.67s/it]
    
    
     36%|███████████████████████████▎                                               | 774/2124 [2:52:18<7:49:32, 20.87s/it]
    
    
     36%|███████████████████████████▎                                               | 775/2124 [2:52:21<5:52:59, 15.70s/it]
    
    
     37%|███████████████████████████▍                                               | 776/2124 [2:52:22<4:12:29, 11.24s/it]
    
    
     37%|███████████████████████████▍                                               | 777/2124 [2:52:29<3:46:47, 10.10s/it]
    
    
     37%|███████████████████████████▍                                               | 778/2124 [2:52:32<2:54:10,  7.76s/it]
    
    
     37%|███████████████████████████▏                                              | 779/2124 [2:53:54<11:14:46, 30.10s/it]
    
    
     37%|███████████████████████████▌                                               | 780/2124 [2:53:55<7:55:36, 21.23s/it]
    
    
     37%|███████████████████████████▌                                               | 781/2124 [2:54:01<6:14:47, 16.74s/it]
    
    
     37%|███████████████████████████▌                                               | 782/2124 [2:54:06<4:55:12, 13.20s/it]
    
    
     37%|███████████████████████████▋                                               | 783/2124 [2:54:22<5:13:52, 14.04s/it]
    
    
     37%|███████████████████████████▋                                               | 784/2124 [2:54:26<4:10:01, 11.20s/it]
    
    
     37%|███████████████████████████▋                                               | 785/2124 [2:54:39<4:20:18, 11.66s/it]
    
    
     37%|███████████████████████████▊                                               | 786/2124 [2:54:41<3:17:25,  8.85s/it]
    
    
     37%|███████████████████████████▊                                               | 787/2124 [2:55:01<4:29:05, 12.08s/it]
    
    
     37%|███████████████████████████▊                                               | 788/2124 [2:55:04<3:29:04,  9.39s/it]
    
    
     37%|███████████████████████████▍                                              | 789/2124 [2:57:22<17:49:53, 48.08s/it]
    
    
     37%|███████████████████████████▌                                              | 790/2124 [2:57:24<12:40:17, 34.20s/it]
    
    
     37%|███████████████████████████▉                                               | 791/2124 [2:57:29<9:26:08, 25.48s/it]
    
    
     37%|███████████████████████████▉                                               | 792/2124 [2:57:31<6:46:21, 18.30s/it]
    
    
     37%|████████████████████████████                                               | 793/2124 [2:57:34<5:02:39, 13.64s/it]
    
    
     37%|███████████████████████████▋                                              | 794/2124 [3:00:16<21:28:55, 58.15s/it]
    
    
     37%|███████████████████████████▋                                              | 795/2124 [3:00:17<15:11:02, 41.13s/it]
    
    
     37%|███████████████████████████▋                                              | 796/2124 [3:00:20<10:55:14, 29.60s/it]
    
    
     38%|████████████████████████████▏                                              | 797/2124 [3:00:22<7:51:21, 21.31s/it]
    
    
     38%|████████████████████████████▏                                              | 798/2124 [3:00:23<5:40:29, 15.41s/it]
    
    
     38%|████████████████████████████▏                                              | 799/2124 [3:00:34<5:08:14, 13.96s/it]
    
    
     38%|████████████████████████████▏                                              | 800/2124 [3:00:38<4:00:54, 10.92s/it]
    
    
     38%|████████████████████████████▎                                              | 801/2124 [3:00:40<3:05:22,  8.41s/it]
    
    
     38%|████████████████████████████▎                                              | 802/2124 [3:00:41<2:16:21,  6.19s/it]
    
    
     38%|████████████████████████████▎                                              | 803/2124 [3:00:47<2:15:34,  6.16s/it]
    
    
     38%|████████████████████████████▍                                              | 804/2124 [3:00:50<1:51:40,  5.08s/it]
    
    
     38%|████████████████████████████▍                                              | 805/2124 [3:00:52<1:29:21,  4.06s/it]
    
    
     38%|████████████████████████████▍                                              | 806/2124 [3:00:54<1:15:18,  3.43s/it]
    
    
     38%|████████████████████████████▍                                              | 807/2124 [3:01:25<4:19:01, 11.80s/it]
    
    
     38%|████████████████████████████▌                                              | 808/2124 [3:01:37<4:20:20, 11.87s/it]
    
    
     38%|████████████████████████████▌                                              | 809/2124 [3:01:38<3:10:43,  8.70s/it]
    
    
     38%|████████████████████████████▌                                              | 810/2124 [3:01:41<2:29:36,  6.83s/it]
    
    
     38%|████████████████████████████▋                                              | 811/2124 [3:01:44<2:07:12,  5.81s/it]
    
    
     38%|████████████████████████████▋                                              | 812/2124 [3:01:46<1:37:57,  4.48s/it]
    
    
     38%|████████████████████████████▋                                              | 813/2124 [3:01:50<1:37:21,  4.46s/it]
    
    
     38%|████████████████████████████▋                                              | 814/2124 [3:01:52<1:18:28,  3.59s/it]
    
    
     38%|████████████████████████████▊                                              | 815/2124 [3:02:00<1:48:57,  4.99s/it]
    
    
     38%|████████████████████████████▊                                              | 816/2124 [3:02:36<5:12:07, 14.32s/it]
    
    
     38%|████████████████████████████▊                                              | 817/2124 [3:02:37<3:46:00, 10.38s/it]
    
    
     39%|████████████████████████████▉                                              | 818/2124 [3:02:40<2:56:22,  8.10s/it]
    
    
     39%|████████████████████████████▉                                              | 819/2124 [3:02:43<2:22:32,  6.55s/it]
    
    
     39%|████████████████████████████▉                                              | 820/2124 [3:02:44<1:48:37,  5.00s/it]
    
    
     39%|████████████████████████████▉                                              | 821/2124 [3:02:45<1:22:18,  3.79s/it]
    
    
     39%|█████████████████████████████                                              | 822/2124 [3:02:53<1:47:38,  4.96s/it]
    
    
     39%|█████████████████████████████                                              | 823/2124 [3:03:21<4:20:24, 12.01s/it]
    
    
     39%|█████████████████████████████                                              | 824/2124 [3:03:23<3:15:03,  9.00s/it]
    
    
     39%|█████████████████████████████▏                                             | 825/2124 [3:03:24<2:23:52,  6.65s/it]
    
    
     39%|█████████████████████████████▏                                             | 826/2124 [3:03:27<1:55:09,  5.32s/it]
    
    
     39%|█████████████████████████████▏                                             | 827/2124 [3:03:31<1:49:57,  5.09s/it]
    
    
     39%|█████████████████████████████▏                                             | 828/2124 [3:03:33<1:30:30,  4.19s/it]
    
    
     39%|█████████████████████████████▎                                             | 829/2124 [3:03:36<1:20:07,  3.71s/it]
    
    
     39%|████████████████████████████▉                                             | 830/2124 [3:08:12<30:40:41, 85.35s/it]
    
    
     39%|████████████████████████████▉                                             | 831/2124 [3:08:14<21:43:52, 60.50s/it]
    
    
     39%|████████████████████████████▉                                             | 832/2124 [3:08:17<15:28:06, 43.10s/it]
    
    
     39%|█████████████████████████████                                             | 833/2124 [3:08:25<11:45:02, 32.77s/it]
    
    
     39%|█████████████████████████████▍                                             | 834/2124 [3:08:26<8:18:06, 23.17s/it]
    
    
     39%|█████████████████████████████▍                                             | 835/2124 [3:08:28<5:57:19, 16.63s/it]
    
    
     39%|█████████████████████████████▌                                             | 836/2124 [3:08:34<4:51:47, 13.59s/it]
    
    
     39%|█████████████████████████████▌                                             | 837/2124 [3:08:42<4:15:05, 11.89s/it]
    
    
     39%|█████████████████████████████▌                                             | 838/2124 [3:08:45<3:14:24,  9.07s/it]
    
    
     40%|█████████████████████████████▋                                             | 839/2124 [3:08:46<2:23:05,  6.68s/it]
    
    
     40%|█████████████████████████████▋                                             | 840/2124 [3:08:46<1:43:26,  4.83s/it]
    
    
     40%|█████████████████████████████▋                                             | 841/2124 [3:09:09<3:37:09, 10.16s/it]
    
    
     40%|█████████████████████████████▋                                             | 842/2124 [3:09:11<2:45:17,  7.74s/it]
    
    
     40%|█████████████████████████████▊                                             | 843/2124 [3:09:13<2:12:40,  6.21s/it]
    
    
     40%|█████████████████████████████▍                                            | 844/2124 [3:11:01<13:03:23, 36.72s/it]
    
    
     40%|█████████████████████████████▊                                             | 845/2124 [3:11:04<9:22:20, 26.38s/it]
    
    
     40%|█████████████████████████████▊                                             | 846/2124 [3:11:05<6:41:57, 18.87s/it]
    
    
     40%|█████████████████████████████▉                                             | 847/2124 [3:11:06<4:48:50, 13.57s/it]
    
    
     40%|█████████████████████████████▉                                             | 848/2124 [3:11:08<3:34:39, 10.09s/it]
    
    
     40%|█████████████████████████████▉                                             | 849/2124 [3:11:11<2:46:17,  7.83s/it]
    
    
     40%|██████████████████████████████                                             | 850/2124 [3:11:20<2:52:40,  8.13s/it]
    
    
     40%|██████████████████████████████                                             | 851/2124 [3:11:30<3:05:47,  8.76s/it]
    
    
     40%|██████████████████████████████                                             | 852/2124 [3:11:34<2:36:40,  7.39s/it]
    
    
     40%|██████████████████████████████                                             | 853/2124 [3:11:41<2:31:25,  7.15s/it]
    
    
     40%|██████████████████████████████▏                                            | 854/2124 [3:11:42<1:57:30,  5.55s/it]
    
    
     40%|██████████████████████████████▏                                            | 855/2124 [3:11:45<1:38:45,  4.67s/it]
    
    
     40%|██████████████████████████████▏                                            | 856/2124 [3:11:52<1:54:56,  5.44s/it]
    
    
     40%|██████████████████████████████▎                                            | 857/2124 [3:11:55<1:35:51,  4.54s/it]
    
    
     40%|██████████████████████████████▎                                            | 858/2124 [3:12:03<1:57:50,  5.59s/it]
    
    
     40%|██████████████████████████████▎                                            | 859/2124 [3:12:09<2:04:53,  5.92s/it]
    
    
     40%|██████████████████████████████▎                                            | 860/2124 [3:12:15<2:01:46,  5.78s/it]
    
    
     41%|██████████████████████████████▍                                            | 861/2124 [3:12:16<1:30:04,  4.28s/it]
    
    
     41%|██████████████████████████████▍                                            | 862/2124 [3:13:40<9:57:10, 28.39s/it]
    
    
     41%|██████████████████████████████▍                                            | 863/2124 [3:13:44<7:21:17, 21.00s/it]
    
    
     41%|██████████████████████████████▌                                            | 864/2124 [3:13:46<5:19:42, 15.22s/it]
    
    
     41%|██████████████████████████████▌                                            | 865/2124 [3:13:54<4:38:21, 13.27s/it]
    
    
     41%|██████████████████████████████▌                                            | 866/2124 [3:14:06<4:25:49, 12.68s/it]
    
    
     41%|██████████████████████████████▌                                            | 867/2124 [3:14:21<4:41:06, 13.42s/it]
    
    
     41%|██████████████████████████████▋                                            | 868/2124 [3:14:27<3:56:22, 11.29s/it]
    
    
     41%|██████████████████████████████▋                                            | 869/2124 [3:14:29<2:59:25,  8.58s/it]
    
    
     41%|██████████████████████████████▋                                            | 870/2124 [3:14:31<2:17:13,  6.57s/it]
    
    
     41%|██████████████████████████████▊                                            | 871/2124 [3:14:34<1:54:55,  5.50s/it]
    
    
     41%|██████████████████████████████▊                                            | 872/2124 [3:14:35<1:23:00,  3.98s/it]
    
    
     41%|██████████████████████████████▊                                            | 873/2124 [3:14:37<1:12:04,  3.46s/it]
    
    
     41%|██████████████████████████████▊                                            | 874/2124 [3:14:40<1:07:38,  3.25s/it]
    
    
     41%|██████████████████████████████▉                                            | 875/2124 [3:14:47<1:34:56,  4.56s/it]
    
    
     41%|██████████████████████████████▌                                           | 876/2124 [3:16:48<13:38:11, 39.34s/it]
    
    
     41%|██████████████████████████████▌                                           | 877/2124 [3:16:54<10:12:51, 29.49s/it]
    
    
     41%|███████████████████████████████                                            | 878/2124 [3:16:58<7:28:35, 21.60s/it]
    
    
     41%|███████████████████████████████                                            | 879/2124 [3:17:02<5:38:17, 16.30s/it]
    
    
     41%|███████████████████████████████                                            | 880/2124 [3:17:03<4:04:33, 11.80s/it]
    
    
     41%|██████████████████████████████▋                                           | 881/2124 [3:18:15<10:20:55, 29.97s/it]
    
    
     42%|███████████████████████████████▏                                           | 882/2124 [3:18:19<7:39:54, 22.22s/it]
    
    
     42%|███████████████████████████████▏                                           | 883/2124 [3:18:26<6:03:30, 17.57s/it]
    
    
     42%|███████████████████████████████▏                                           | 884/2124 [3:18:37<5:18:52, 15.43s/it]
    
    
     42%|███████████████████████████████▎                                           | 885/2124 [3:18:41<4:09:21, 12.08s/it]
    
    
     42%|███████████████████████████████▎                                           | 886/2124 [3:18:48<3:38:29, 10.59s/it]
    
    
     42%|███████████████████████████████▎                                           | 887/2124 [3:18:52<2:57:11,  8.59s/it]
    
    
     42%|███████████████████████████████▎                                           | 888/2124 [3:19:59<8:56:57, 26.07s/it]
    
    
     42%|███████████████████████████████▍                                           | 889/2124 [3:20:01<6:29:35, 18.93s/it]
    
    
     42%|███████████████████████████████▍                                           | 890/2124 [3:20:05<4:56:47, 14.43s/it]
    
    
     42%|███████████████████████████████▍                                           | 891/2124 [3:20:09<3:51:48, 11.28s/it]
    
    
     42%|███████████████████████████████▍                                           | 892/2124 [3:20:11<2:55:29,  8.55s/it]
    
    
     42%|███████████████████████████████▌                                           | 893/2124 [3:20:15<2:27:14,  7.18s/it]
    
    
     42%|███████████████████████████████▌                                           | 894/2124 [3:20:18<1:59:17,  5.82s/it]
    
    
     42%|███████████████████████████████▌                                           | 895/2124 [3:20:21<1:45:10,  5.13s/it]
    
    
     42%|███████████████████████████████▋                                           | 896/2124 [3:20:26<1:40:36,  4.92s/it]
    
    
     42%|███████████████████████████████▋                                           | 897/2124 [3:20:41<2:46:20,  8.13s/it]
    
    
     42%|███████████████████████████████▋                                           | 898/2124 [3:20:43<2:08:54,  6.31s/it]
    
    
     42%|███████████████████████████████▋                                           | 899/2124 [3:21:04<3:36:32, 10.61s/it]
    
    
     42%|███████████████████████████████▊                                           | 900/2124 [3:21:16<3:47:58, 11.17s/it]
    
    
     42%|███████████████████████████████▊                                           | 901/2124 [3:22:27<9:52:46, 29.08s/it]
    
    
     42%|███████████████████████████████▍                                          | 902/2124 [3:26:35<32:08:16, 94.68s/it]
    
    
     43%|███████████████████████████████▍                                          | 903/2124 [3:26:38<22:45:26, 67.10s/it]
    
    
     43%|███████████████████████████████▍                                          | 904/2124 [3:27:11<19:15:34, 56.83s/it]
    
    
     43%|███████████████████████████████▌                                          | 905/2124 [3:27:11<13:33:06, 40.02s/it]
    
    
     43%|███████████████████████████████▌                                          | 906/2124 [3:27:17<10:04:21, 29.77s/it]
    
    
     43%|███████████████████████████████▌                                          | 907/2124 [3:27:53<10:42:11, 31.66s/it]
    
    
     43%|████████████████████████████████                                           | 908/2124 [3:28:00<8:06:59, 24.03s/it]
    
    
     43%|███████████████████████████████▋                                          | 909/2124 [3:29:33<15:08:26, 44.86s/it]
    
    
     43%|███████████████████████████████▋                                          | 910/2124 [3:29:35<10:47:22, 32.00s/it]
    
    
     43%|████████████████████████████████▏                                          | 911/2124 [3:29:36<7:38:48, 22.69s/it]
    
    
     43%|████████████████████████████████▏                                          | 912/2124 [3:29:38<5:31:37, 16.42s/it]
    
    
     43%|███████████████████████████████▊                                          | 913/2124 [3:30:53<11:26:24, 34.01s/it]
    
    
     43%|███████████████████████████████▊                                          | 914/2124 [3:31:14<10:05:39, 30.03s/it]
    
    
     43%|████████████████████████████████▎                                          | 915/2124 [3:31:14<7:08:26, 21.26s/it]
    
    
     43%|████████████████████████████████▎                                          | 916/2124 [3:31:24<6:00:22, 17.90s/it]
    
    
     43%|████████████████████████████████▍                                          | 917/2124 [3:31:51<6:52:09, 20.49s/it]
    
    
     43%|████████████████████████████████▍                                          | 918/2124 [3:31:54<5:06:48, 15.26s/it]
    
    
     43%|████████████████████████████████▍                                          | 919/2124 [3:31:55<3:41:58, 11.05s/it]
    
    
     43%|████████████████████████████████▍                                          | 920/2124 [3:31:56<2:40:10,  7.98s/it]
    
    
     43%|████████████████████████████████▌                                          | 921/2124 [3:31:57<2:00:03,  5.99s/it]
    
    
     43%|████████████████████████████████▌                                          | 922/2124 [3:32:03<1:59:52,  5.98s/it]
    
    
     43%|████████████████████████████████▌                                          | 923/2124 [3:32:20<3:03:38,  9.17s/it]
    
    
     44%|████████████████████████████████▋                                          | 924/2124 [3:32:22<2:23:06,  7.16s/it]
    
    
     44%|████████████████████████████████▋                                          | 925/2124 [3:32:24<1:47:43,  5.39s/it]
    
    
     44%|████████████████████████████████▋                                          | 926/2124 [3:32:24<1:17:13,  3.87s/it]
    
    
     44%|████████████████████████████████▋                                          | 927/2124 [3:32:41<2:38:04,  7.92s/it]
    
    
     44%|████████████████████████████████▊                                          | 928/2124 [3:32:43<1:58:45,  5.96s/it]
    
    
     44%|████████████████████████████████▊                                          | 929/2124 [3:32:47<1:49:28,  5.50s/it]
    
    
     44%|████████████████████████████████▊                                          | 930/2124 [3:32:48<1:22:12,  4.13s/it]
    
    
     44%|████████████████████████████████▊                                          | 931/2124 [3:32:51<1:13:41,  3.71s/it]
    
    
     44%|████████████████████████████████▉                                          | 932/2124 [3:32:55<1:18:54,  3.97s/it]
    
    
     44%|████████████████████████████████▉                                          | 933/2124 [3:32:57<1:04:11,  3.23s/it]
    
    
     44%|████████████████████████████████▉                                          | 934/2124 [3:33:05<1:34:51,  4.78s/it]
    
    
     44%|█████████████████████████████████                                          | 935/2124 [3:33:17<2:14:05,  6.77s/it]
    
    
     44%|█████████████████████████████████                                          | 936/2124 [3:33:18<1:39:48,  5.04s/it]
    
    
     44%|█████████████████████████████████                                          | 937/2124 [3:33:22<1:33:04,  4.70s/it]
    
    
     44%|█████████████████████████████████                                          | 938/2124 [3:33:39<2:46:22,  8.42s/it]
    
    
     44%|█████████████████████████████████▏                                         | 939/2124 [3:33:42<2:14:53,  6.83s/it]
    
    
     44%|█████████████████████████████████▏                                         | 940/2124 [3:33:44<1:47:56,  5.47s/it]
    
    
     44%|█████████████████████████████████▏                                         | 941/2124 [3:34:10<3:45:35, 11.44s/it]
    
    
     44%|█████████████████████████████████▎                                         | 942/2124 [3:34:56<7:13:36, 22.01s/it]
    
    
     44%|█████████████████████████████████▎                                         | 943/2124 [3:34:57<5:10:24, 15.77s/it]
    
    
     44%|█████████████████████████████████▎                                         | 944/2124 [3:34:59<3:44:01, 11.39s/it]
    
    
     44%|█████████████████████████████████▎                                         | 945/2124 [3:35:00<2:43:46,  8.33s/it]
    
    
     45%|█████████████████████████████████▍                                         | 946/2124 [3:35:01<2:00:23,  6.13s/it]
    
    
     45%|█████████████████████████████████▍                                         | 947/2124 [3:35:13<2:37:40,  8.04s/it]
    
    
     45%|█████████████████████████████████▍                                         | 948/2124 [3:35:14<1:53:17,  5.78s/it]
    
    
     45%|█████████████████████████████████▌                                         | 949/2124 [3:35:22<2:08:24,  6.56s/it]
    
    
     45%|█████████████████████████████████▌                                         | 950/2124 [3:35:26<1:52:58,  5.77s/it]
    
    
     45%|█████████████████████████████████▌                                         | 951/2124 [3:35:28<1:27:31,  4.48s/it]
    
    
     45%|█████████████████████████████████▌                                         | 952/2124 [3:35:29<1:09:17,  3.55s/it]
    
    
     45%|█████████████████████████████████▋                                         | 953/2124 [3:35:33<1:09:47,  3.58s/it]
    
    
     45%|██████████████████████████████████▌                                          | 954/2124 [3:35:34<57:38,  2.96s/it]
    
    
     45%|█████████████████████████████████▋                                         | 955/2124 [3:35:51<2:20:11,  7.20s/it]
    
    
     45%|█████████████████████████████████▊                                         | 956/2124 [3:36:13<3:42:53, 11.45s/it]
    
    
     45%|█████████████████████████████████▊                                         | 957/2124 [3:36:14<2:43:00,  8.38s/it]
    
    
     45%|█████████████████████████████████▊                                         | 958/2124 [3:36:16<2:04:22,  6.40s/it]
    
    
     45%|█████████████████████████████████▊                                         | 959/2124 [3:36:17<1:35:09,  4.90s/it]
    
    
     45%|█████████████████████████████████▉                                         | 960/2124 [3:36:20<1:21:48,  4.22s/it]
    
    
     45%|█████████████████████████████████▉                                         | 961/2124 [3:36:33<2:16:52,  7.06s/it]
    
    
     45%|█████████████████████████████████▉                                         | 962/2124 [3:36:38<2:02:11,  6.31s/it]
    
    
     45%|██████████████████████████████████                                         | 963/2124 [3:36:41<1:40:55,  5.22s/it]
    
    
     45%|██████████████████████████████████                                         | 964/2124 [3:36:41<1:15:35,  3.91s/it]
    
    
     45%|██████████████████████████████████                                         | 965/2124 [3:36:43<1:02:26,  3.23s/it]
    
    
     45%|███████████████████████████████████                                          | 966/2124 [3:36:43<45:28,  2.36s/it]
    
    
     46%|███████████████████████████████████                                          | 967/2124 [3:36:44<36:06,  1.87s/it]
    
    
     46%|███████████████████████████████████                                          | 968/2124 [3:36:46<37:29,  1.95s/it]
    
    
     46%|██████████████████████████████████▏                                        | 969/2124 [3:37:01<1:50:57,  5.76s/it]
    
    
     46%|██████████████████████████████████▎                                        | 970/2124 [3:37:08<2:00:50,  6.28s/it]
    
    
     46%|██████████████████████████████████▎                                        | 971/2124 [3:37:10<1:34:50,  4.94s/it]
    
    
     46%|██████████████████████████████████▎                                        | 972/2124 [3:37:12<1:16:11,  3.97s/it]
    
    
     46%|██████████████████████████████████▎                                        | 973/2124 [3:37:13<1:00:07,  3.13s/it]
    
    
     46%|███████████████████████████████████▎                                         | 974/2124 [3:37:15<50:56,  2.66s/it]
    
    
     46%|██████████████████████████████████▍                                        | 975/2124 [3:37:20<1:07:51,  3.54s/it]
    
    
     46%|██████████████████████████████████▍                                        | 976/2124 [3:37:24<1:07:23,  3.52s/it]
    
    
     46%|██████████████████████████████████▍                                        | 977/2124 [3:38:54<9:24:00, 29.50s/it]
    
    
     46%|██████████████████████████████████▌                                        | 978/2124 [3:39:02<7:22:38, 23.17s/it]
    
    
     46%|██████████████████████████████████▌                                        | 979/2124 [3:39:04<5:21:06, 16.83s/it]
    
    
     46%|██████████████████████████████████▌                                        | 980/2124 [3:39:09<4:10:28, 13.14s/it]
    
    
     46%|██████████████████████████████████▋                                        | 981/2124 [3:39:10<3:00:09,  9.46s/it]
    
    
     46%|██████████████████████████████████▋                                        | 982/2124 [3:39:16<2:42:42,  8.55s/it]
    
    
     46%|██████████████████████████████████▋                                        | 983/2124 [3:39:18<2:03:48,  6.51s/it]
    
    
     46%|██████████████████████████████████▋                                        | 984/2124 [3:39:30<2:34:58,  8.16s/it]
    
    
     46%|██████████████████████████████████▊                                        | 985/2124 [3:39:34<2:11:37,  6.93s/it]
    
    
     46%|██████████████████████████████████▊                                        | 986/2124 [3:39:42<2:16:04,  7.17s/it]
    
    
     46%|██████████████████████████████████▊                                        | 987/2124 [3:39:49<2:19:30,  7.36s/it]
    
    
     47%|██████████████████████████████████▉                                        | 988/2124 [3:39:50<1:39:38,  5.26s/it]
    
    
     47%|██████████████████████████████████▉                                        | 989/2124 [3:39:52<1:20:22,  4.25s/it]
    
    
     47%|██████████████████████████████████▉                                        | 990/2124 [3:40:13<2:57:05,  9.37s/it]
    
    
     47%|██████████████████████████████████▉                                        | 991/2124 [3:40:16<2:19:29,  7.39s/it]
    
    
     47%|███████████████████████████████████                                        | 992/2124 [3:40:25<2:27:45,  7.83s/it]
    
    
     47%|███████████████████████████████████                                        | 993/2124 [3:40:35<2:39:29,  8.46s/it]
    
    
     47%|███████████████████████████████████                                        | 994/2124 [3:40:37<2:06:53,  6.74s/it]
    
    
     47%|███████████████████████████████████▏                                       | 995/2124 [3:40:39<1:38:43,  5.25s/it]
    
    
     47%|███████████████████████████████████▏                                       | 996/2124 [3:41:14<4:26:14, 14.16s/it]
    
    
     47%|███████████████████████████████████▏                                       | 997/2124 [3:41:23<3:56:16, 12.58s/it]
    
    
     47%|███████████████████████████████████▏                                       | 998/2124 [3:41:29<3:18:14, 10.56s/it]
    
    
     47%|███████████████████████████████████▎                                       | 999/2124 [3:41:30<2:23:46,  7.67s/it]
    
    
     47%|██████████████████████████████████▊                                       | 1000/2124 [3:42:54<9:32:01, 30.54s/it]
    
    
     47%|██████████████████████████████████▊                                       | 1001/2124 [3:42:55<6:49:10, 21.86s/it]
    
    
     47%|██████████████████████████████████▉                                       | 1002/2124 [3:42:59<5:06:06, 16.37s/it]
    
    
     47%|██████████████████████████████████▉                                       | 1003/2124 [3:43:00<3:38:41, 11.70s/it]
    
    
     47%|██████████████████████████████████▉                                       | 1004/2124 [3:43:05<3:03:44,  9.84s/it]
    
    
     47%|███████████████████████████████████                                       | 1005/2124 [3:43:06<2:12:54,  7.13s/it]
    
    
     47%|███████████████████████████████████                                       | 1006/2124 [3:43:07<1:41:49,  5.46s/it]
    
    
     47%|███████████████████████████████████                                       | 1007/2124 [3:43:09<1:21:43,  4.39s/it]
    
    
     47%|███████████████████████████████████                                       | 1008/2124 [3:43:36<3:28:31, 11.21s/it]
    
    
     48%|███████████████████████████████████▏                                      | 1009/2124 [3:43:38<2:34:16,  8.30s/it]
    
    
     48%|███████████████████████████████████▏                                      | 1010/2124 [3:43:42<2:08:33,  6.92s/it]
    
    
     48%|███████████████████████████████████▏                                      | 1011/2124 [3:43:45<1:49:00,  5.88s/it]
    
    
     48%|███████████████████████████████████▎                                      | 1012/2124 [3:45:14<9:28:20, 30.67s/it]
    
    
     48%|███████████████████████████████████▎                                      | 1013/2124 [3:45:14<6:41:47, 21.70s/it]
    
    
     48%|███████████████████████████████████▎                                      | 1014/2124 [3:45:20<5:12:44, 16.91s/it]
    
    
     48%|███████████████████████████████████▎                                      | 1015/2124 [3:45:58<7:10:22, 23.28s/it]
    
    
     48%|███████████████████████████████████▍                                      | 1016/2124 [3:46:01<5:13:38, 16.98s/it]
    
    
     48%|███████████████████████████████████▍                                      | 1017/2124 [3:46:02<3:45:24, 12.22s/it]
    
    
     48%|███████████████████████████████████▍                                      | 1018/2124 [3:46:21<4:23:55, 14.32s/it]
    
    
     48%|███████████████████████████████████▌                                      | 1019/2124 [3:46:24<3:19:25, 10.83s/it]
    
    
     48%|███████████████████████████████████▌                                      | 1021/2124 [3:46:25<2:22:41,  7.76s/it]
    
    
     48%|███████████████████████████████████▋                                      | 1023/2124 [3:46:59<3:14:26, 10.60s/it]
    
    
     48%|███████████████████████████████████▋                                      | 1024/2124 [3:46:59<2:17:08,  7.48s/it]
    
    
     48%|███████████████████████████████████▋                                      | 1025/2124 [3:47:00<1:40:20,  5.48s/it]
    
    
     48%|███████████████████████████████████▋                                      | 1026/2124 [3:47:14<2:25:57,  7.98s/it]
    
    
     48%|███████████████████████████████████▊                                      | 1027/2124 [3:47:18<2:04:37,  6.82s/it]
    
    
     48%|███████████████████████████████████▊                                      | 1028/2124 [3:47:22<1:46:03,  5.81s/it]
    
    
     48%|███████████████████████████████████▊                                      | 1029/2124 [3:47:29<1:56:06,  6.36s/it]
    
    
     48%|███████████████████████████████████▉                                      | 1030/2124 [3:47:31<1:29:16,  4.90s/it]
    
    
     49%|███████████████████████████████████▉                                      | 1031/2124 [3:47:32<1:07:04,  3.68s/it]
    
    
     49%|████████████████████████████████████▉                                       | 1032/2124 [3:47:32<51:37,  2.84s/it]
    
    
     49%|███████████████████████████████████▉                                      | 1033/2124 [3:49:07<9:10:40, 30.28s/it]
    
    
     49%|████████████████████████████████████                                      | 1034/2124 [3:49:08<6:31:43, 21.56s/it]
    
    
     49%|████████████████████████████████████                                      | 1035/2124 [3:49:21<5:43:36, 18.93s/it]
    
    
     49%|████████████████████████████████████                                      | 1036/2124 [3:49:23<4:09:55, 13.78s/it]
    
    
     49%|████████████████████████████████████▏                                     | 1037/2124 [3:49:27<3:19:43, 11.02s/it]
    
    
     49%|████████████████████████████████████▏                                     | 1038/2124 [3:49:41<3:33:15, 11.78s/it]
    
    
     49%|████████████████████████████████████▏                                     | 1039/2124 [3:49:46<2:57:28,  9.81s/it]
    
    
     49%|████████████████████████████████████▏                                     | 1040/2124 [3:49:49<2:19:24,  7.72s/it]
    
    
     49%|████████████████████████████████████▎                                     | 1041/2124 [3:49:50<1:43:45,  5.75s/it]
    
    
     49%|████████████████████████████████████▎                                     | 1042/2124 [3:49:52<1:23:18,  4.62s/it]
    
    
     49%|████████████████████████████████████▎                                     | 1043/2124 [3:50:37<5:01:47, 16.75s/it]
    
    
     49%|████████████████████████████████████▎                                     | 1044/2124 [3:50:38<3:36:24, 12.02s/it]
    
    
     49%|████████████████████████████████████▍                                     | 1045/2124 [3:50:47<3:22:16, 11.25s/it]
    
    
     49%|████████████████████████████████████▍                                     | 1046/2124 [3:50:59<3:23:27, 11.32s/it]
    
    
     49%|████████████████████████████████████▍                                     | 1047/2124 [3:50:59<2:25:11,  8.09s/it]
    
    
     49%|████████████████████████████████████▌                                     | 1048/2124 [3:51:07<2:23:24,  8.00s/it]
    
    
     49%|████████████████████████████████████▌                                     | 1049/2124 [3:51:52<5:38:47, 18.91s/it]
    
    
     49%|████████████████████████████████████▌                                     | 1050/2124 [3:51:58<4:31:12, 15.15s/it]
    
    
     49%|████████████████████████████████████▌                                     | 1051/2124 [3:52:02<3:29:22, 11.71s/it]
    
    
     50%|████████████████████████████████████▋                                     | 1052/2124 [3:52:52<6:57:03, 23.34s/it]
    
    
     50%|████████████████████████████████████▋                                     | 1053/2124 [3:52:53<4:58:33, 16.73s/it]
    
    
     50%|████████████████████████████████████▋                                     | 1054/2124 [3:52:55<3:39:59, 12.34s/it]
    
    
     50%|████████████████████████████████████▊                                     | 1055/2124 [3:52:57<2:44:32,  9.23s/it]
    
    
     50%|████████████████████████████████████▊                                     | 1056/2124 [3:53:26<4:26:16, 14.96s/it]
    
    
     50%|████████████████████████████████████▊                                     | 1057/2124 [3:53:28<3:20:45, 11.29s/it]
    
    
     50%|████████████████████████████████████▊                                     | 1058/2124 [3:53:30<2:31:09,  8.51s/it]
    
    
     50%|████████████████████████████████████▉                                     | 1059/2124 [3:53:32<1:55:55,  6.53s/it]
    
    
     50%|████████████████████████████████████▉                                     | 1060/2124 [3:53:51<3:00:30, 10.18s/it]
    
    
     50%|████████████████████████████████████▉                                     | 1061/2124 [3:53:52<2:11:43,  7.43s/it]
    
    
     50%|█████████████████████████████████████                                     | 1062/2124 [3:53:54<1:42:17,  5.78s/it]
    
    
     50%|█████████████████████████████████████                                     | 1063/2124 [3:53:55<1:17:20,  4.37s/it]
    
    
     50%|█████████████████████████████████████                                     | 1064/2124 [3:54:05<1:43:46,  5.87s/it]
    
    
     50%|█████████████████████████████████████                                     | 1065/2124 [3:55:34<9:07:32, 31.02s/it]
    
    
     50%|█████████████████████████████████████▏                                    | 1066/2124 [3:56:02<8:48:50, 29.99s/it]
    
    
     50%|█████████████████████████████████████▏                                    | 1067/2124 [3:56:22<7:55:40, 27.00s/it]
    
    
     50%|█████████████████████████████████████▏                                    | 1068/2124 [3:56:24<5:43:34, 19.52s/it]
    
    
     50%|█████████████████████████████████████▏                                    | 1069/2124 [3:56:28<4:23:04, 14.96s/it]
    
    
     50%|█████████████████████████████████████▎                                    | 1070/2124 [3:56:30<3:15:34, 11.13s/it]
    
    
     50%|█████████████████████████████████████▎                                    | 1071/2124 [3:56:31<2:22:07,  8.10s/it]
    
    
     50%|█████████████████████████████████████▎                                    | 1072/2124 [3:56:33<1:48:28,  6.19s/it]
    
    
     51%|█████████████████████████████████████▍                                    | 1073/2124 [3:56:37<1:36:51,  5.53s/it]
    
    
     51%|█████████████████████████████████████▍                                    | 1074/2124 [3:56:40<1:22:36,  4.72s/it]
    
    
     51%|█████████████████████████████████████▍                                    | 1075/2124 [3:56:44<1:19:04,  4.52s/it]
    
    
     51%|█████████████████████████████████████▍                                    | 1076/2124 [3:56:48<1:13:34,  4.21s/it]
    
    
     51%|█████████████████████████████████████▌                                    | 1077/2124 [3:56:50<1:05:49,  3.77s/it]
    
    
     51%|██████████████████████████████████████▌                                     | 1078/2124 [3:56:52<57:33,  3.30s/it]
    
    
     51%|█████████████████████████████████████▌                                    | 1079/2124 [3:57:00<1:20:46,  4.64s/it]
    
    
     51%|██████████████████████████████████████▋                                     | 1080/2124 [3:57:01<59:03,  3.39s/it]
    
    
     51%|██████████████████████████████████████▋                                     | 1081/2124 [3:57:03<50:29,  2.90s/it]
    
    
     51%|█████████████████████████████████████▋                                    | 1082/2124 [3:57:09<1:08:32,  3.95s/it]
    
    
     51%|█████████████████████████████████████▋                                    | 1083/2124 [3:57:39<3:25:19, 11.83s/it]
    
    
     51%|█████████████████████████████████████▊                                    | 1084/2124 [3:57:42<2:38:02,  9.12s/it]
    
    
     51%|█████████████████████████████████████▊                                    | 1085/2124 [3:57:43<1:56:58,  6.76s/it]
    
    
     51%|█████████████████████████████████████▊                                    | 1086/2124 [3:57:44<1:26:02,  4.97s/it]
    
    
     51%|█████████████████████████████████████▊                                    | 1087/2124 [3:58:00<2:21:01,  8.16s/it]
    
    
     51%|█████████████████████████████████████▉                                    | 1088/2124 [3:58:05<2:08:42,  7.45s/it]
    
    
     51%|█████████████████████████████████████▉                                    | 1089/2124 [3:58:08<1:43:13,  5.98s/it]
    
    
     51%|█████████████████████████████████████▉                                    | 1090/2124 [3:58:10<1:24:43,  4.92s/it]
    
    
     51%|██████████████████████████████████████                                    | 1091/2124 [3:58:23<2:05:09,  7.27s/it]
    
    
     51%|██████████████████████████████████████                                    | 1092/2124 [3:58:25<1:39:20,  5.78s/it]
    
    
     51%|██████████████████████████████████████                                    | 1093/2124 [3:58:53<3:32:08, 12.35s/it]
    
    
     52%|██████████████████████████████████████                                    | 1094/2124 [3:59:46<7:02:06, 24.59s/it]
    
    
     52%|██████████████████████████████████████▏                                   | 1095/2124 [3:59:50<5:12:38, 18.23s/it]
    
    
     52%|█████████████████████████████████████▏                                  | 1096/2124 [4:06:01<35:29:30, 124.29s/it]
    
    
     52%|█████████████████████████████████████▋                                   | 1097/2124 [4:06:16<26:04:08, 91.38s/it]
    
    
     52%|█████████████████████████████████████▋                                   | 1098/2124 [4:06:27<19:07:52, 67.13s/it]
    
    
     52%|█████████████████████████████████████▊                                   | 1099/2124 [4:06:28<13:28:42, 47.34s/it]
    
    
     52%|██████████████████████████████████████▎                                   | 1100/2124 [4:06:29<9:30:37, 33.44s/it]
    
    
     52%|██████████████████████████████████████▎                                   | 1101/2124 [4:06:42<7:49:18, 27.53s/it]
    
    
     52%|██████████████████████████████████████▍                                   | 1102/2124 [4:06:44<5:37:44, 19.83s/it]
    
    
     52%|██████████████████████████████████████▍                                   | 1103/2124 [4:06:48<4:13:46, 14.91s/it]
    
    
     52%|█████████████████████████████████████▉                                   | 1104/2124 [4:10:45<23:05:11, 81.48s/it]
    
    
     52%|█████████████████████████████████████▉                                   | 1105/2124 [4:10:49<16:29:10, 58.24s/it]
    
    
     52%|██████████████████████████████████████                                   | 1106/2124 [4:11:09<13:17:56, 47.03s/it]
    
    
     52%|██████████████████████████████████████▌                                   | 1107/2124 [4:11:14<9:40:04, 34.22s/it]
    
    
     52%|██████████████████████████████████████▌                                   | 1108/2124 [4:11:15<6:51:23, 24.29s/it]
    
    
     52%|██████████████████████████████████████▋                                   | 1109/2124 [4:11:16<4:54:45, 17.42s/it]
    
    
     52%|██████████████████████████████████████▋                                   | 1110/2124 [4:11:17<3:31:52, 12.54s/it]
    
    
     52%|██████████████████████████████████████▋                                   | 1111/2124 [4:11:20<2:43:24,  9.68s/it]
    
    
     52%|██████████████████████████████████████▋                                   | 1112/2124 [4:11:24<2:14:01,  7.95s/it]
    
    
     52%|██████████████████████████████████████▊                                   | 1113/2124 [4:11:36<2:34:19,  9.16s/it]
    
    
     52%|██████████████████████████████████████▊                                   | 1114/2124 [4:11:42<2:14:32,  7.99s/it]
    
    
     52%|██████████████████████████████████████▊                                   | 1115/2124 [4:11:44<1:47:40,  6.40s/it]
    
    
     53%|██████████████████████████████████████▉                                   | 1116/2124 [4:11:50<1:46:21,  6.33s/it]
    
    
     53%|██████████████████████████████████████▉                                   | 1117/2124 [4:11:52<1:24:31,  5.04s/it]
    
    
     53%|██████████████████████████████████████▍                                  | 1118/2124 [4:14:11<12:37:16, 45.17s/it]
    
    
     53%|██████████████████████████████████████▉                                   | 1119/2124 [4:14:12<8:51:21, 31.72s/it]
    
    
     53%|███████████████████████████████████████                                   | 1120/2124 [4:14:43<8:49:10, 31.62s/it]
    
    
     53%|███████████████████████████████████████                                   | 1121/2124 [4:14:44<6:15:10, 22.44s/it]
    
    
     53%|███████████████████████████████████████                                   | 1122/2124 [4:14:44<4:24:13, 15.82s/it]
    
    
     53%|███████████████████████████████████████▏                                  | 1123/2124 [4:14:52<3:41:10, 13.26s/it]
    
    
     53%|███████████████████████████████████████▏                                  | 1124/2124 [4:15:03<3:33:17, 12.80s/it]
    
    
     53%|███████████████████████████████████████▏                                  | 1125/2124 [4:15:06<2:41:40,  9.71s/it]
    
    
     53%|███████████████████████████████████████▏                                  | 1126/2124 [4:15:09<2:07:48,  7.68s/it]
    
    
     53%|███████████████████████████████████████▎                                  | 1127/2124 [4:15:09<1:30:53,  5.47s/it]
    
    
     53%|███████████████████████████████████████▎                                  | 1128/2124 [4:15:33<3:03:32, 11.06s/it]
    
    
     53%|███████████████████████████████████████▎                                  | 1129/2124 [4:15:35<2:16:58,  8.26s/it]
    
    
     53%|███████████████████████████████████████▎                                  | 1130/2124 [4:15:47<2:34:06,  9.30s/it]
    
    
     53%|███████████████████████████████████████▍                                  | 1131/2124 [4:15:50<2:05:56,  7.61s/it]
    
    
     53%|███████████████████████████████████████▍                                  | 1132/2124 [4:16:09<3:02:03, 11.01s/it]
    
    
     53%|███████████████████████████████████████▍                                  | 1133/2124 [4:16:11<2:13:42,  8.10s/it]
    
    
     53%|███████████████████████████████████████▌                                  | 1134/2124 [4:17:25<7:39:37, 27.86s/it]
    
    
     53%|███████████████████████████████████████▌                                  | 1135/2124 [4:17:25<5:24:00, 19.66s/it]
    
    
     53%|███████████████████████████████████████▌                                  | 1136/2124 [4:17:44<5:21:39, 19.53s/it]
    
    
     54%|███████████████████████████████████████▌                                  | 1137/2124 [4:17:51<4:16:31, 15.59s/it]
    
    
     54%|███████████████████████████████████████▋                                  | 1138/2124 [4:19:04<9:02:06, 32.99s/it]
    
    
     54%|███████████████████████████████████████▋                                  | 1139/2124 [4:19:07<6:32:38, 23.92s/it]
    
    
     54%|███████████████████████████████████████▋                                  | 1140/2124 [4:19:07<4:35:06, 16.78s/it]
    
    
     54%|███████████████████████████████████████▊                                  | 1141/2124 [4:19:09<3:23:38, 12.43s/it]
    
    
     54%|███████████████████████████████████████▊                                  | 1142/2124 [4:19:12<2:32:35,  9.32s/it]
    
    
     54%|███████████████████████████████████████▊                                  | 1143/2124 [4:19:14<1:58:18,  7.24s/it]
    
    
     54%|███████████████████████████████████████▊                                  | 1144/2124 [4:19:22<2:00:43,  7.39s/it]
    
    
     54%|███████████████████████████████████████▉                                  | 1145/2124 [4:19:24<1:34:02,  5.76s/it]
    
    
     54%|███████████████████████████████████████▉                                  | 1146/2124 [4:19:24<1:08:10,  4.18s/it]
    
    
     54%|█████████████████████████████████████████                                   | 1147/2124 [4:19:25<53:23,  3.28s/it]
    
    
     54%|█████████████████████████████████████████                                   | 1148/2124 [4:19:28<48:14,  2.97s/it]
    
    
     54%|█████████████████████████████████████████                                   | 1149/2124 [4:19:28<37:56,  2.34s/it]
    
    
     54%|█████████████████████████████████████████▏                                  | 1150/2124 [4:19:29<30:18,  1.87s/it]
    
    
     54%|█████████████████████████████████████████▏                                  | 1151/2124 [4:19:30<23:08,  1.43s/it]
    
    
     54%|█████████████████████████████████████████▏                                  | 1152/2124 [4:19:36<47:31,  2.93s/it]
    
    
     54%|█████████████████████████████████████████▎                                  | 1153/2124 [4:19:38<44:53,  2.77s/it]
    
    
     54%|█████████████████████████████████████████▎                                  | 1154/2124 [4:19:40<40:17,  2.49s/it]
    
    
     54%|█████████████████████████████████████████▎                                  | 1155/2124 [4:19:43<43:14,  2.68s/it]
    
    
     54%|█████████████████████████████████████████▎                                  | 1156/2124 [4:19:44<33:55,  2.10s/it]
    
    
     54%|████████████████████████████████████████▎                                 | 1157/2124 [4:19:54<1:09:24,  4.31s/it]
    
    
     55%|████████████████████████████████████████▎                                 | 1158/2124 [4:20:05<1:42:29,  6.37s/it]
    
    
     55%|████████████████████████████████████████▍                                 | 1159/2124 [4:20:14<1:54:46,  7.14s/it]
    
    
     55%|████████████████████████████████████████▍                                 | 1160/2124 [4:20:18<1:42:59,  6.41s/it]
    
    
     55%|████████████████████████████████████████▍                                 | 1161/2124 [4:20:21<1:24:40,  5.28s/it]
    
    
     55%|████████████████████████████████████████▍                                 | 1162/2124 [4:20:27<1:27:41,  5.47s/it]
    
    
     55%|████████████████████████████████████████▌                                 | 1163/2124 [4:20:29<1:10:21,  4.39s/it]
    
    
     55%|████████████████████████████████████████▌                                 | 1164/2124 [4:21:07<3:52:46, 14.55s/it]
    
    
     55%|████████████████████████████████████████▌                                 | 1165/2124 [4:21:10<2:55:34, 10.98s/it]
    
    
     55%|████████████████████████████████████████▌                                 | 1166/2124 [4:21:13<2:19:26,  8.73s/it]
    
    
     55%|████████████████████████████████████████▋                                 | 1167/2124 [4:21:26<2:38:04,  9.91s/it]
    
    
     55%|████████████████████████████████████████▋                                 | 1168/2124 [4:21:30<2:11:17,  8.24s/it]
    
    
     55%|████████████████████████████████████████▋                                 | 1169/2124 [4:21:31<1:37:39,  6.14s/it]
    
    
     55%|████████████████████████████████████████▊                                 | 1170/2124 [4:21:33<1:14:00,  4.65s/it]
    
    
     55%|████████████████████████████████████████▊                                 | 1171/2124 [4:21:37<1:13:32,  4.63s/it]
    
    
     55%|█████████████████████████████████████████▉                                  | 1172/2124 [4:21:39<58:04,  3.66s/it]
    
    
     55%|████████████████████████████████████████▊                                 | 1173/2124 [4:22:07<2:55:17, 11.06s/it]
    
    
     55%|████████████████████████████████████████▉                                 | 1174/2124 [4:23:07<6:46:17, 25.66s/it]
    
    
     55%|████████████████████████████████████████▉                                 | 1175/2124 [4:23:10<4:58:06, 18.85s/it]
    
    
     55%|████████████████████████████████████████▉                                 | 1176/2124 [4:23:12<3:37:36, 13.77s/it]
    
    
     55%|█████████████████████████████████████████                                 | 1177/2124 [4:23:14<2:44:54, 10.45s/it]
    
    
     55%|█████████████████████████████████████████                                 | 1178/2124 [4:23:18<2:13:44,  8.48s/it]
    
    
     56%|█████████████████████████████████████████                                 | 1179/2124 [4:23:29<2:26:29,  9.30s/it]
    
    
     56%|█████████████████████████████████████████                                 | 1180/2124 [4:23:33<2:00:28,  7.66s/it]
    
    
     56%|█████████████████████████████████████████▏                                | 1181/2124 [4:23:35<1:34:46,  6.03s/it]
    
    
     56%|█████████████████████████████████████████▏                                | 1182/2124 [4:23:37<1:13:55,  4.71s/it]
    
    
     56%|██████████████████████████████████████████▎                                 | 1183/2124 [4:23:39<59:28,  3.79s/it]
    
    
     56%|█████████████████████████████████████████▎                                | 1184/2124 [4:24:16<3:38:14, 13.93s/it]
    
    
     56%|█████████████████████████████████████████▎                                | 1185/2124 [4:24:37<4:08:40, 15.89s/it]
    
    
     56%|█████████████████████████████████████████▎                                | 1186/2124 [4:24:42<3:16:50, 12.59s/it]
    
    
     56%|████████████████████████████████████████▊                                | 1187/2124 [4:26:26<10:25:33, 40.06s/it]
    
    
     56%|█████████████████████████████████████████▍                                | 1188/2124 [4:26:30<7:39:00, 29.42s/it]
    
    
     56%|█████████████████████████████████████████▍                                | 1189/2124 [4:26:31<5:23:27, 20.76s/it]
    
    
     56%|█████████████████████████████████████████▍                                | 1190/2124 [4:26:48<5:04:55, 19.59s/it]
    
    
     56%|█████████████████████████████████████████▍                                | 1191/2124 [4:26:56<4:09:20, 16.03s/it]
    
    
     56%|█████████████████████████████████████████▌                                | 1192/2124 [4:26:59<3:12:01, 12.36s/it]
    
    
     56%|█████████████████████████████████████████▌                                | 1193/2124 [4:27:01<2:21:08,  9.10s/it]
    
    
     56%|█████████████████████████████████████████▌                                | 1194/2124 [4:27:03<1:51:06,  7.17s/it]
    
    
     56%|█████████████████████████████████████████                                | 1195/2124 [4:30:21<16:34:52, 64.25s/it]
    
    
     56%|█████████████████████████████████████████                                | 1196/2124 [4:30:22<11:41:13, 45.34s/it]
    
    
     56%|█████████████████████████████████████████▏                               | 1197/2124 [4:31:20<12:37:16, 49.01s/it]
    
    
     56%|█████████████████████████████████████████▋                                | 1198/2124 [4:31:24<9:07:36, 35.48s/it]
    
    
     56%|█████████████████████████████████████████▊                                | 1199/2124 [4:31:25<6:28:01, 25.17s/it]
    
    
     56%|█████████████████████████████████████████▊                                | 1200/2124 [4:31:28<4:47:43, 18.68s/it]
    
    
     57%|█████████████████████████████████████████▊                                | 1201/2124 [4:31:29<3:25:03, 13.33s/it]
    
    
     57%|█████████████████████████████████████████▉                                | 1202/2124 [4:31:48<3:49:40, 14.95s/it]
    
    
     57%|█████████████████████████████████████████▉                                | 1203/2124 [4:31:49<2:46:38, 10.86s/it]
    
    
     57%|█████████████████████████████████████████▍                               | 1204/2124 [4:33:45<10:48:26, 42.29s/it]
    
    
     57%|█████████████████████████████████████████▉                                | 1205/2124 [4:33:48<7:48:01, 30.56s/it]
    
    
     57%|██████████████████████████████████████████                                | 1206/2124 [4:34:01<6:27:57, 25.36s/it]
    
    
     57%|██████████████████████████████████████████                                | 1207/2124 [4:34:06<4:55:05, 19.31s/it]
    
    
     57%|██████████████████████████████████████████                                | 1208/2124 [4:34:08<3:35:28, 14.11s/it]
    
    
     57%|██████████████████████████████████████████                                | 1209/2124 [4:34:10<2:37:53, 10.35s/it]
    
    
     57%|██████████████████████████████████████████▏                               | 1210/2124 [4:34:11<1:56:04,  7.62s/it]
    
    
     57%|██████████████████████████████████████████▏                               | 1211/2124 [4:34:13<1:28:15,  5.80s/it]
    
    
     57%|██████████████████████████████████████████▏                               | 1212/2124 [4:34:45<3:27:19, 13.64s/it]
    
    
     57%|██████████████████████████████████████████▎                               | 1213/2124 [4:34:48<2:40:03, 10.54s/it]
    
    
     57%|██████████████████████████████████████████▎                               | 1214/2124 [4:34:57<2:32:09, 10.03s/it]
    
    
     57%|██████████████████████████████████████████▎                               | 1215/2124 [4:34:59<1:58:06,  7.80s/it]
    
    
     57%|██████████████████████████████████████████▎                               | 1216/2124 [4:35:03<1:37:50,  6.46s/it]
    
    
     57%|██████████████████████████████████████████▍                               | 1217/2124 [4:35:06<1:23:58,  5.55s/it]
    
    
     57%|██████████████████████████████████████████▍                               | 1218/2124 [4:35:08<1:06:31,  4.41s/it]
    
    
     57%|███████████████████████████████████████████▌                                | 1219/2124 [4:35:09<51:49,  3.44s/it]
    
    
     57%|███████████████████████████████████████████▋                                | 1220/2124 [4:35:11<43:34,  2.89s/it]
    
    
     57%|███████████████████████████████████████████▋                                | 1221/2124 [4:35:13<38:31,  2.56s/it]
    
    
     58%|██████████████████████████████████████████▌                               | 1222/2124 [4:35:22<1:09:11,  4.60s/it]
    
    
     58%|██████████████████████████████████████████▌                               | 1223/2124 [4:35:25<1:03:37,  4.24s/it]
    
    
     58%|███████████████████████████████████████████▊                                | 1224/2124 [4:35:27<50:23,  3.36s/it]
    
    
     58%|███████████████████████████████████████████▊                                | 1225/2124 [4:35:30<50:43,  3.39s/it]
    
    
     58%|██████████████████████████████████████████▋                               | 1226/2124 [4:36:00<2:49:57, 11.36s/it]
    
    
     58%|██████████████████████████████████████████▋                               | 1227/2124 [4:36:01<2:05:02,  8.36s/it]
    
    
     58%|██████████████████████████████████████████▊                               | 1228/2124 [4:36:02<1:31:39,  6.14s/it]
    
    
     58%|██████████████████████████████████████████▊                               | 1229/2124 [4:36:06<1:19:31,  5.33s/it]
    
    
     58%|████████████████████████████████████████████                                | 1230/2124 [4:36:07<59:34,  4.00s/it]
    
    
     58%|██████████████████████████████████████████▉                               | 1231/2124 [4:37:10<5:23:08, 21.71s/it]
    
    
     58%|██████████████████████████████████████████▉                               | 1232/2124 [4:37:12<3:55:06, 15.81s/it]
    
    
     58%|██████████████████████████████████████████▉                               | 1233/2124 [4:37:16<3:03:06, 12.33s/it]
    
    
     58%|██████████████████████████████████████████▉                               | 1234/2124 [4:37:31<3:13:44, 13.06s/it]
    
    
     58%|███████████████████████████████████████████                               | 1235/2124 [4:37:32<2:20:31,  9.48s/it]
    
    
     58%|██████████████████████████████████████████▍                              | 1236/2124 [4:40:16<13:47:22, 55.90s/it]
    
    
     58%|██████████████████████████████████████████▌                              | 1237/2124 [4:40:29<10:37:36, 43.13s/it]
    
    
     58%|██████████████████████████████████████████▌                              | 1238/2124 [4:41:22<11:20:37, 46.09s/it]
    
    
     58%|███████████████████████████████████████████▏                              | 1239/2124 [4:41:28<8:22:12, 34.05s/it]
    
    
     58%|███████████████████████████████████████████▏                              | 1240/2124 [4:41:31<6:01:42, 24.55s/it]
    
    
     58%|███████████████████████████████████████████▏                              | 1241/2124 [4:41:47<5:24:35, 22.06s/it]
    
    
     58%|███████████████████████████████████████████▎                              | 1242/2124 [4:41:47<3:47:40, 15.49s/it]
    
    
     59%|███████████████████████████████████████████▎                              | 1243/2124 [4:41:50<2:53:47, 11.84s/it]
    
    
     59%|███████████████████████████████████████████▎                              | 1244/2124 [4:41:52<2:09:18,  8.82s/it]
    
    
     59%|███████████████████████████████████████████▍                              | 1245/2124 [4:41:54<1:39:27,  6.79s/it]
    
    
     59%|███████████████████████████████████████████▍                              | 1246/2124 [4:41:55<1:10:39,  4.83s/it]
    
    
     59%|███████████████████████████████████████████▍                              | 1247/2124 [4:41:58<1:04:29,  4.41s/it]
    
    
     59%|███████████████████████████████████████████▍                              | 1248/2124 [4:42:01<1:00:24,  4.14s/it]
    
    
     59%|███████████████████████████████████████████▌                              | 1249/2124 [4:42:42<3:38:45, 15.00s/it]
    
    
     59%|███████████████████████████████████████████▌                              | 1250/2124 [4:42:56<3:37:02, 14.90s/it]
    
    
     59%|███████████████████████████████████████████▌                              | 1251/2124 [4:44:11<7:55:44, 32.70s/it]
    
    
     59%|███████████████████████████████████████████▌                              | 1252/2124 [4:44:14<5:44:59, 23.74s/it]
    
    
     59%|███████████████████████████████████████████▋                              | 1253/2124 [4:44:16<4:12:56, 17.42s/it]
    
    
     59%|███████████████████████████████████████████▋                              | 1254/2124 [4:44:18<3:04:30, 12.73s/it]
    
    
     59%|███████████████████████████████████████████▋                              | 1255/2124 [4:44:20<2:16:53,  9.45s/it]
    
    
     59%|███████████████████████████████████████████▊                              | 1256/2124 [4:45:02<4:40:48, 19.41s/it]
    
    
     59%|███████████████████████████████████████████▊                              | 1257/2124 [4:45:06<3:31:50, 14.66s/it]
    
    
     59%|███████████████████████████████████████████▊                              | 1258/2124 [4:45:08<2:38:07, 10.96s/it]
    
    
     59%|███████████████████████████████████████████▊                              | 1259/2124 [4:45:09<1:54:54,  7.97s/it]
    
    
     59%|███████████████████████████████████████████▉                              | 1260/2124 [4:45:40<3:32:39, 14.77s/it]
    
    
     59%|███████████████████████████████████████████▉                              | 1261/2124 [4:45:43<2:41:13, 11.21s/it]
    
    
     59%|███████████████████████████████████████████▉                              | 1262/2124 [4:45:59<3:00:35, 12.57s/it]
    
    
     59%|███████████████████████████████████████████▍                             | 1263/2124 [4:50:10<20:10:15, 84.34s/it]
    
    
     60%|███████████████████████████████████████████▍                             | 1264/2124 [4:50:12<14:12:56, 59.51s/it]
    
    
     60%|███████████████████████████████████████████▍                             | 1265/2124 [4:50:15<10:07:22, 42.42s/it]
    
    
     60%|████████████████████████████████████████████                              | 1266/2124 [4:50:15<7:07:45, 29.91s/it]
    
    
     60%|████████████████████████████████████████████▏                             | 1267/2124 [4:50:17<5:04:30, 21.32s/it]
    
    
     60%|████████████████████████████████████████████▏                             | 1268/2124 [4:50:17<3:36:19, 15.16s/it]
    
    
     60%|████████████████████████████████████████████▏                             | 1269/2124 [4:50:27<3:13:47, 13.60s/it]
    
    
     60%|████████████████████████████████████████████▏                             | 1270/2124 [4:50:31<2:32:36, 10.72s/it]
    
    
     60%|████████████████████████████████████████████▎                             | 1271/2124 [4:52:26<9:54:28, 41.81s/it]
    
    
     60%|███████████████████████████████████████████▋                             | 1272/2124 [4:55:20<19:20:01, 81.69s/it]
    
    
     60%|███████████████████████████████████████████▊                             | 1273/2124 [4:55:23<13:40:25, 57.84s/it]
    
    
     60%|███████████████████████████████████████████▊                             | 1274/2124 [4:55:49<11:26:08, 48.43s/it]
    
    
     60%|████████████████████████████████████████████▍                             | 1275/2124 [4:56:05<9:06:40, 38.63s/it]
    
    
     60%|████████████████████████████████████████████▍                             | 1276/2124 [4:56:15<7:04:09, 30.01s/it]
    
    
     60%|████████████████████████████████████████████▍                             | 1277/2124 [4:56:16<5:03:10, 21.48s/it]
    
    
     60%|████████████████████████████████████████████▌                             | 1278/2124 [4:56:22<3:55:02, 16.67s/it]
    
    
     60%|████████████████████████████████████████████▌                             | 1279/2124 [4:56:26<3:02:51, 12.98s/it]
    
    
     60%|████████████████████████████████████████████▌                             | 1280/2124 [4:56:43<3:18:39, 14.12s/it]
    
    
     60%|████████████████████████████████████████████▋                             | 1281/2124 [4:56:45<2:28:39, 10.58s/it]
    
    
     60%|████████████████████████████████████████████▋                             | 1282/2124 [4:56:46<1:48:52,  7.76s/it]
    
    
     60%|████████████████████████████████████████████▋                             | 1283/2124 [4:56:49<1:26:43,  6.19s/it]
    
    
     60%|████████████████████████████████████████████▋                             | 1284/2124 [4:56:50<1:06:34,  4.76s/it]
    
    
     60%|███████████████████████████████████████████▌                            | 1285/2124 [5:02:44<25:29:07, 109.35s/it]
    
    
     61%|████████████████████████████████████████████▏                            | 1286/2124 [5:02:46<17:57:41, 77.16s/it]
    
    
     61%|████████████████████████████████████████████▏                            | 1287/2124 [5:03:57<17:29:27, 75.23s/it]
    
    
     61%|████████████████████████████████████████████▎                            | 1288/2124 [5:03:59<12:23:27, 53.36s/it]
    
    
     61%|████████████████████████████████████████████▉                             | 1289/2124 [5:04:01<8:47:17, 37.89s/it]
    
    
     61%|████████████████████████████████████████████▉                             | 1290/2124 [5:04:02<6:13:34, 26.88s/it]
    
    
     61%|████████████████████████████████████████████▉                             | 1291/2124 [5:04:05<4:35:15, 19.83s/it]
    
    
     61%|████████████████████████████████████████████▍                            | 1292/2124 [5:07:56<19:13:24, 83.18s/it]
    
    
     61%|████████████████████████████████████████████▍                            | 1293/2124 [5:07:58<13:32:56, 58.70s/it]
    
    
     61%|█████████████████████████████████████████████                             | 1294/2124 [5:08:00<9:37:47, 41.77s/it]
    
    
     61%|█████████████████████████████████████████████                             | 1295/2124 [5:08:05<7:04:50, 30.75s/it]
    
    
     61%|█████████████████████████████████████████████▏                            | 1296/2124 [5:08:10<5:17:30, 23.01s/it]
    
    
     61%|█████████████████████████████████████████████▏                            | 1297/2124 [5:08:11<3:47:12, 16.48s/it]
    
    
     61%|█████████████████████████████████████████████▏                            | 1298/2124 [5:08:14<2:49:54, 12.34s/it]
    
    
     61%|█████████████████████████████████████████████▎                            | 1299/2124 [5:08:16<2:05:13,  9.11s/it]
    
    
     61%|█████████████████████████████████████████████▎                            | 1300/2124 [5:08:20<1:45:06,  7.65s/it]
    
    
     61%|█████████████████████████████████████████████▎                            | 1301/2124 [5:08:27<1:41:25,  7.39s/it]
    
    
     61%|█████████████████████████████████████████████▎                            | 1302/2124 [5:08:29<1:18:56,  5.76s/it]
    
    
     61%|█████████████████████████████████████████████▍                            | 1303/2124 [5:08:33<1:11:31,  5.23s/it]
    
    
     61%|█████████████████████████████████████████████▍                            | 1304/2124 [5:08:44<1:38:04,  7.18s/it]
    
    
     61%|█████████████████████████████████████████████▍                            | 1305/2124 [5:08:48<1:25:34,  6.27s/it]
    
    
     61%|█████████████████████████████████████████████▌                            | 1306/2124 [5:08:51<1:11:13,  5.22s/it]
    
    
     62%|█████████████████████████████████████████████▌                            | 1307/2124 [5:09:03<1:36:47,  7.11s/it]
    
    
     62%|█████████████████████████████████████████████▌                            | 1308/2124 [5:09:09<1:32:38,  6.81s/it]
    
    
     62%|█████████████████████████████████████████████▌                            | 1309/2124 [5:09:11<1:15:29,  5.56s/it]
    
    
     62%|█████████████████████████████████████████████▋                            | 1310/2124 [5:09:23<1:41:41,  7.50s/it]
    
    
     62%|█████████████████████████████████████████████▋                            | 1311/2124 [5:09:24<1:14:30,  5.50s/it]
    
    
     62%|█████████████████████████████████████████████▋                            | 1312/2124 [5:09:29<1:13:06,  5.40s/it]
    
    
     62%|██████████████████████████████████████████████▉                             | 1313/2124 [5:09:31<58:53,  4.36s/it]
    
    
     62%|█████████████████████████████████████████████▊                            | 1314/2124 [5:09:37<1:04:40,  4.79s/it]
    
    
     62%|█████████████████████████████████████████████▊                            | 1315/2124 [5:09:51<1:40:39,  7.47s/it]
    
    
     62%|█████████████████████████████████████████████▊                            | 1316/2124 [5:09:53<1:18:24,  5.82s/it]
    
    
     62%|█████████████████████████████████████████████▉                            | 1317/2124 [5:09:57<1:09:50,  5.19s/it]
    
    
     62%|███████████████████████████████████████████████▏                            | 1318/2124 [5:09:58<53:19,  3.97s/it]
    
    
     62%|███████████████████████████████████████████████▏                            | 1319/2124 [5:09:59<42:59,  3.20s/it]
    
    
     62%|███████████████████████████████████████████████▏                            | 1320/2124 [5:10:00<32:17,  2.41s/it]
    
    
     62%|███████████████████████████████████████████████▎                            | 1321/2124 [5:10:05<42:15,  3.16s/it]
    
    
     62%|███████████████████████████████████████████████▎                            | 1322/2124 [5:10:06<35:41,  2.67s/it]
    
    
     62%|███████████████████████████████████████████████▎                            | 1323/2124 [5:10:12<48:21,  3.62s/it]
    
    
     62%|███████████████████████████████████████████████▎                            | 1324/2124 [5:10:16<50:57,  3.82s/it]
    
    
     62%|███████████████████████████████████████████████▍                            | 1325/2124 [5:10:17<40:33,  3.05s/it]
    
    
     62%|███████████████████████████████████████████████▍                            | 1326/2124 [5:10:19<32:58,  2.48s/it]
    
    
     62%|███████████████████████████████████████████████▍                            | 1327/2124 [5:10:19<24:18,  1.83s/it]
    
    
     63%|███████████████████████████████████████████████▌                            | 1328/2124 [5:10:20<20:50,  1.57s/it]
    
    
     63%|███████████████████████████████████████████████▌                            | 1329/2124 [5:10:22<23:03,  1.74s/it]
    
    
     63%|███████████████████████████████████████████████▌                            | 1330/2124 [5:10:29<45:05,  3.41s/it]
    
    
     63%|███████████████████████████████████████████████▋                            | 1331/2124 [5:10:32<42:06,  3.19s/it]
    
    
     63%|███████████████████████████████████████████████▋                            | 1332/2124 [5:10:33<31:33,  2.39s/it]
    
    
     63%|███████████████████████████████████████████████▋                            | 1333/2124 [5:10:39<48:18,  3.66s/it]
    
    
     63%|██████████████████████████████████████████████▍                           | 1334/2124 [5:11:23<3:26:02, 15.65s/it]
    
    
     63%|██████████████████████████████████████████████▌                           | 1335/2124 [5:12:15<5:50:03, 26.62s/it]
    
    
     63%|██████████████████████████████████████████████▌                           | 1336/2124 [5:12:22<4:32:38, 20.76s/it]
    
    
     63%|██████████████████████████████████████████████▌                           | 1337/2124 [5:12:54<5:16:13, 24.11s/it]
    
    
     63%|██████████████████████████████████████████████▌                           | 1338/2124 [5:13:12<4:52:22, 22.32s/it]
    
    
     63%|██████████████████████████████████████████████▋                           | 1339/2124 [5:13:56<6:18:12, 28.91s/it]
    
    
     63%|██████████████████████████████████████████████▋                           | 1340/2124 [5:14:01<4:42:09, 21.59s/it]
    
    
     63%|██████████████████████████████████████████████▋                           | 1341/2124 [5:14:48<6:19:38, 29.09s/it]
    
    
     63%|██████████████████████████████████████████████▊                           | 1342/2124 [5:14:49<4:30:51, 20.78s/it]
    
    
     63%|██████████████████████████████████████████████▊                           | 1343/2124 [5:14:52<3:20:20, 15.39s/it]
    
    
     63%|██████████████████████████████████████████████▊                           | 1344/2124 [5:14:55<2:33:44, 11.83s/it]
    
    
     63%|██████████████████████████████████████████████▊                           | 1345/2124 [5:14:57<1:52:53,  8.69s/it]
    
    
     63%|██████████████████████████████████████████████▉                           | 1346/2124 [5:14:58<1:25:55,  6.63s/it]
    
    
     63%|██████████████████████████████████████████████▉                           | 1347/2124 [5:15:04<1:19:52,  6.17s/it]
    
    
     63%|██████████████████████████████████████████████▉                           | 1348/2124 [5:17:03<8:39:20, 40.15s/it]
    
    
     64%|██████████████████████████████████████████████▉                           | 1349/2124 [5:17:22<7:17:15, 33.85s/it]
    
    
     64%|███████████████████████████████████████████████                           | 1350/2124 [5:17:25<5:16:46, 24.56s/it]
    
    
     64%|███████████████████████████████████████████████                           | 1351/2124 [5:17:26<3:43:35, 17.35s/it]
    
    
     64%|███████████████████████████████████████████████                           | 1352/2124 [5:17:28<2:45:57, 12.90s/it]
    
    
     64%|███████████████████████████████████████████████▏                          | 1353/2124 [5:17:30<2:02:51,  9.56s/it]
    
    
     64%|███████████████████████████████████████████████▏                          | 1354/2124 [5:17:47<2:30:49, 11.75s/it]
    
    
     64%|███████████████████████████████████████████████▏                          | 1355/2124 [5:17:59<2:34:23, 12.05s/it]
    
    
     64%|███████████████████████████████████████████████▏                          | 1356/2124 [5:18:02<1:58:18,  9.24s/it]
    
    
     64%|███████████████████████████████████████████████▎                          | 1357/2124 [5:18:05<1:35:12,  7.45s/it]
    
    
     64%|███████████████████████████████████████████████▎                          | 1358/2124 [5:18:13<1:37:01,  7.60s/it]
    
    
     64%|███████████████████████████████████████████████▎                          | 1359/2124 [5:18:18<1:23:34,  6.55s/it]
    
    
     64%|███████████████████████████████████████████████▍                          | 1360/2124 [5:18:21<1:10:12,  5.51s/it]
    
    
     64%|███████████████████████████████████████████████▍                          | 1361/2124 [5:18:24<1:02:28,  4.91s/it]
    
    
     64%|███████████████████████████████████████████████▍                          | 1362/2124 [5:18:31<1:08:19,  5.38s/it]
    
    
     64%|███████████████████████████████████████████████▍                          | 1363/2124 [5:18:36<1:07:11,  5.30s/it]
    
    
     64%|████████████████████████████████████████████████▊                           | 1364/2124 [5:18:37<50:48,  4.01s/it]
    
    
     64%|████████████████████████████████████████████████▊                           | 1365/2124 [5:18:38<41:09,  3.25s/it]
    
    
     64%|████████████████████████████████████████████████▉                           | 1366/2124 [5:18:42<42:39,  3.38s/it]
    
    
     64%|████████████████████████████████████████████████▉                           | 1367/2124 [5:18:43<33:03,  2.62s/it]
    
    
     64%|████████████████████████████████████████████████▉                           | 1368/2124 [5:18:44<27:42,  2.20s/it]
    
    
     64%|████████████████████████████████████████████████▉                           | 1369/2124 [5:18:47<29:38,  2.36s/it]
    
    
     65%|█████████████████████████████████████████████████                           | 1370/2124 [5:18:49<30:37,  2.44s/it]
    
    
     65%|█████████████████████████████████████████████████                           | 1371/2124 [5:18:53<33:46,  2.69s/it]
    
    
     65%|█████████████████████████████████████████████████                           | 1372/2124 [5:18:55<31:07,  2.48s/it]
    
    
     65%|█████████████████████████████████████████████████▏                          | 1373/2124 [5:18:55<23:17,  1.86s/it]
    
    
     65%|█████████████████████████████████████████████████▏                          | 1374/2124 [5:18:56<21:17,  1.70s/it]
    
    
     65%|█████████████████████████████████████████████████▏                          | 1375/2124 [5:18:57<19:20,  1.55s/it]
    
    
     65%|█████████████████████████████████████████████████▏                          | 1376/2124 [5:19:01<28:15,  2.27s/it]
    
    
     65%|█████████████████████████████████████████████████▎                          | 1377/2124 [5:19:05<31:37,  2.54s/it]
    
    
     65%|█████████████████████████████████████████████████▎                          | 1378/2124 [5:19:05<24:50,  2.00s/it]
    
    
     65%|█████████████████████████████████████████████████▎                          | 1379/2124 [5:19:07<23:59,  1.93s/it]
    
    
     65%|█████████████████████████████████████████████████▍                          | 1380/2124 [5:19:08<20:17,  1.64s/it]
    
    
     65%|█████████████████████████████████████████████████▍                          | 1381/2124 [5:19:10<20:43,  1.67s/it]
    
    
     65%|█████████████████████████████████████████████████▍                          | 1383/2124 [5:19:13<19:37,  1.59s/it]
    
    
     65%|█████████████████████████████████████████████████▌                          | 1384/2124 [5:19:15<23:13,  1.88s/it]
    
    
     65%|█████████████████████████████████████████████████▌                          | 1385/2124 [5:19:16<20:19,  1.65s/it]
    
    
     65%|████████████████████████████████████████████████▎                         | 1386/2124 [5:19:34<1:20:57,  6.58s/it]
    
    
     65%|████████████████████████████████████████████████▎                         | 1387/2124 [5:19:37<1:06:23,  5.40s/it]
    
    
     65%|████████████████████████████████████████████████▎                         | 1388/2124 [5:19:43<1:09:23,  5.66s/it]
    
    
     65%|████████████████████████████████████████████████▍                         | 1389/2124 [5:20:18<2:55:08, 14.30s/it]
    
    
     65%|████████████████████████████████████████████████▍                         | 1390/2124 [5:21:31<6:31:08, 31.97s/it]
    
    
     65%|████████████████████████████████████████████████▍                         | 1391/2124 [5:21:33<4:42:27, 23.12s/it]
    
    
     66%|████████████████████████████████████████████████▍                         | 1392/2124 [5:21:36<3:26:51, 16.96s/it]
    
    
     66%|████████████████████████████████████████████████▌                         | 1393/2124 [5:21:36<2:26:09, 12.00s/it]
    
    
     66%|████████████████████████████████████████████████▌                         | 1394/2124 [5:21:39<1:52:07,  9.22s/it]
    
    
     66%|████████████████████████████████████████████████▌                         | 1395/2124 [5:21:41<1:26:36,  7.13s/it]
    
    
     66%|████████████████████████████████████████████████▋                         | 1396/2124 [5:21:45<1:15:12,  6.20s/it]
    
    
     66%|████████████████████████████████████████████████▋                         | 1397/2124 [5:21:48<1:01:27,  5.07s/it]
    
    
     66%|████████████████████████████████████████████████▋                         | 1398/2124 [5:21:54<1:05:36,  5.42s/it]
    
    
     66%|██████████████████████████████████████████████████                          | 1399/2124 [5:21:55<50:20,  4.17s/it]
    
    
     66%|██████████████████████████████████████████████████                          | 1400/2124 [5:21:57<42:00,  3.48s/it]
    
    
     66%|██████████████████████████████████████████████████▏                         | 1401/2124 [5:21:59<36:26,  3.02s/it]
    
    
     66%|██████████████████████████████████████████████████▏                         | 1402/2124 [5:22:03<38:33,  3.20s/it]
    
    
     66%|██████████████████████████████████████████████████▏                         | 1403/2124 [5:22:04<32:45,  2.73s/it]
    
    
     66%|██████████████████████████████████████████████████▏                         | 1404/2124 [5:22:06<29:05,  2.42s/it]
    
    
     66%|██████████████████████████████████████████████████▎                         | 1405/2124 [5:22:07<21:57,  1.83s/it]
    
    
     66%|██████████████████████████████████████████████████▎                         | 1406/2124 [5:22:09<25:10,  2.10s/it]
    
    
     66%|█████████████████████████████████████████████████                         | 1407/2124 [5:22:34<1:44:56,  8.78s/it]
    
    
     66%|█████████████████████████████████████████████████                         | 1408/2124 [5:22:47<2:01:59, 10.22s/it]
    
    
     66%|█████████████████████████████████████████████████                         | 1410/2124 [5:22:48<1:27:13,  7.33s/it]
    
    
     66%|█████████████████████████████████████████████████▏                        | 1411/2124 [5:22:49<1:04:03,  5.39s/it]
    
    
     66%|█████████████████████████████████████████████████▏                        | 1412/2124 [5:22:56<1:07:43,  5.71s/it]
    
    
     67%|█████████████████████████████████████████████████▏                        | 1413/2124 [5:23:00<1:01:57,  5.23s/it]
    
    
     67%|██████████████████████████████████████████████████▌                         | 1414/2124 [5:23:00<43:56,  3.71s/it]
    
    
     67%|██████████████████████████████████████████████████▋                         | 1415/2124 [5:23:01<34:15,  2.90s/it]
    
    
     67%|█████████████████████████████████████████████████▎                        | 1416/2124 [5:23:26<1:52:24,  9.53s/it]
    
    
     67%|█████████████████████████████████████████████████▎                        | 1417/2124 [5:23:28<1:25:05,  7.22s/it]
    
    
     67%|█████████████████████████████████████████████████▍                        | 1418/2124 [5:23:30<1:05:36,  5.58s/it]
    
    
     67%|██████████████████████████████████████████████████▊                         | 1419/2124 [5:23:31<50:23,  4.29s/it]
    
    
     67%|█████████████████████████████████████████████████▍                        | 1420/2124 [5:24:16<3:14:25, 16.57s/it]
    
    
     67%|█████████████████████████████████████████████████▌                        | 1421/2124 [5:24:28<2:56:15, 15.04s/it]
    
    
     67%|█████████████████████████████████████████████████▌                        | 1422/2124 [5:24:28<2:06:24, 10.80s/it]
    
    
     67%|█████████████████████████████████████████████████▌                        | 1423/2124 [5:24:36<1:54:52,  9.83s/it]
    
    
     67%|█████████████████████████████████████████████████▌                        | 1424/2124 [5:24:37<1:24:35,  7.25s/it]
    
    
     67%|█████████████████████████████████████████████████▋                        | 1425/2124 [5:24:45<1:25:25,  7.33s/it]
    
    
     67%|█████████████████████████████████████████████████▋                        | 1426/2124 [5:24:49<1:14:19,  6.39s/it]
    
    
     67%|███████████████████████████████████████████████████                         | 1427/2124 [5:24:51<58:16,  5.02s/it]
    
    
     67%|███████████████████████████████████████████████████                         | 1428/2124 [5:24:52<44:57,  3.88s/it]
    
    
     67%|█████████████████████████████████████████████████▊                        | 1429/2124 [5:25:06<1:18:51,  6.81s/it]
    
    
     67%|███████████████████████████████████████████████████▏                        | 1430/2124 [5:25:07<58:32,  5.06s/it]
    
    
     67%|███████████████████████████████████████████████████▏                        | 1431/2124 [5:25:08<46:38,  4.04s/it]
    
    
     67%|███████████████████████████████████████████████████▏                        | 1432/2124 [5:25:12<44:43,  3.88s/it]
    
    
     67%|███████████████████████████████████████████████████▎                        | 1433/2124 [5:25:14<38:24,  3.34s/it]
    
    
     68%|███████████████████████████████████████████████████▎                        | 1434/2124 [5:25:14<27:21,  2.38s/it]
    
    
     68%|███████████████████████████████████████████████████▎                        | 1435/2124 [5:25:16<24:17,  2.12s/it]
    
    
     68%|███████████████████████████████████████████████████▍                        | 1436/2124 [5:25:17<20:30,  1.79s/it]
    
    
     68%|███████████████████████████████████████████████████▍                        | 1437/2124 [5:25:20<24:37,  2.15s/it]
    
    
     68%|███████████████████████████████████████████████████▍                        | 1438/2124 [5:25:21<23:09,  2.02s/it]
    
    
     68%|███████████████████████████████████████████████████▍                        | 1439/2124 [5:25:24<23:59,  2.10s/it]
    
    
     68%|██████████████████████████████████████████████████▏                       | 1440/2124 [5:26:09<2:52:42, 15.15s/it]
    
    
     68%|██████████████████████████████████████████████████▏                       | 1441/2124 [5:26:10<2:01:55, 10.71s/it]
    
    
     68%|██████████████████████████████████████████████████▏                       | 1442/2124 [5:26:14<1:38:49,  8.69s/it]
    
    
     68%|██████████████████████████████████████████████████▎                       | 1443/2124 [5:26:17<1:20:44,  7.11s/it]
    
    
     68%|██████████████████████████████████████████████████▎                       | 1444/2124 [5:26:20<1:05:10,  5.75s/it]
    
    
     68%|██████████████████████████████████████████████████▎                       | 1445/2124 [5:26:36<1:43:00,  9.10s/it]
    
    
     68%|██████████████████████████████████████████████████▍                       | 1446/2124 [5:26:51<2:02:54, 10.88s/it]
    
    
     68%|██████████████████████████████████████████████████▍                       | 1447/2124 [5:26:54<1:34:47,  8.40s/it]
    
    
     68%|██████████████████████████████████████████████████▍                       | 1448/2124 [5:26:58<1:18:19,  6.95s/it]
    
    
     68%|██████████████████████████████████████████████████▍                       | 1449/2124 [5:27:02<1:10:20,  6.25s/it]
    
    
     68%|███████████████████████████████████████████████████▉                        | 1450/2124 [5:27:05<59:49,  5.33s/it]
    
    
     68%|███████████████████████████████████████████████████▉                        | 1451/2124 [5:27:06<43:36,  3.89s/it]
    
    
     68%|███████████████████████████████████████████████████▉                        | 1452/2124 [5:27:07<35:00,  3.13s/it]
    
    
     68%|███████████████████████████████████████████████████▉                        | 1453/2124 [5:27:09<29:46,  2.66s/it]
    
    
     68%|████████████████████████████████████████████████████                        | 1454/2124 [5:27:11<28:33,  2.56s/it]
    
    
     69%|██████████████████████████████████████████████████▋                       | 1455/2124 [5:27:35<1:39:27,  8.92s/it]
    
    
     69%|██████████████████████████████████████████████████▋                       | 1456/2124 [5:27:36<1:13:43,  6.62s/it]
    
    
     69%|██████████████████████████████████████████████████▊                       | 1457/2124 [5:27:42<1:12:00,  6.48s/it]
    
    
     69%|████████████████████████████████████████████████████▏                       | 1458/2124 [5:27:45<57:59,  5.22s/it]
    
    
     69%|██████████████████████████████████████████████████▊                       | 1459/2124 [5:28:03<1:39:55,  9.02s/it]
    
    
     69%|██████████████████████████████████████████████████▊                       | 1460/2124 [5:28:44<3:26:59, 18.70s/it]
    
    
     69%|██████████████████████████████████████████████████▉                       | 1461/2124 [5:28:56<3:03:33, 16.61s/it]
    
    
     69%|██████████████████████████████████████████████████▉                       | 1462/2124 [5:28:58<2:16:10, 12.34s/it]
    
    
     69%|██████████████████████████████████████████████████▉                       | 1463/2124 [5:29:02<1:48:27,  9.84s/it]
    
    
     69%|███████████████████████████████████████████████████                       | 1464/2124 [5:29:11<1:45:55,  9.63s/it]
    
    
     69%|███████████████████████████████████████████████████                       | 1465/2124 [5:29:12<1:18:25,  7.14s/it]
    
    
     69%|███████████████████████████████████████████████████                       | 1466/2124 [5:29:16<1:05:18,  5.96s/it]
    
    
     69%|████████████████████████████████████████████████████▍                       | 1467/2124 [5:29:16<48:20,  4.42s/it]
    
    
     69%|███████████████████████████████████████████████████▏                      | 1468/2124 [5:29:25<1:02:45,  5.74s/it]
    
    
     69%|████████████████████████████████████████████████████▌                       | 1469/2124 [5:29:26<44:48,  4.11s/it]
    
    
     69%|████████████████████████████████████████████████████▌                       | 1470/2124 [5:29:30<45:31,  4.18s/it]
    
    
     69%|████████████████████████████████████████████████████▋                       | 1471/2124 [5:29:33<41:12,  3.79s/it]
    
    
     69%|████████████████████████████████████████████████████▋                       | 1472/2124 [5:29:34<32:49,  3.02s/it]
    
    
     69%|████████████████████████████████████████████████████▋                       | 1473/2124 [5:29:36<29:23,  2.71s/it]
    
    
     69%|████████████████████████████████████████████████████▋                       | 1474/2124 [5:29:40<34:52,  3.22s/it]
    
    
     69%|████████████████████████████████████████████████████▊                       | 1475/2124 [5:29:42<28:24,  2.63s/it]
    
    
     69%|████████████████████████████████████████████████████▊                       | 1476/2124 [5:29:47<36:49,  3.41s/it]
    
    
     70%|███████████████████████████████████████████████████▍                      | 1477/2124 [5:30:51<3:52:39, 21.58s/it]
    
    
     70%|███████████████████████████████████████████████████▍                      | 1478/2124 [5:31:33<4:59:46, 27.84s/it]
    
    
     70%|███████████████████████████████████████████████████▌                      | 1479/2124 [5:31:39<3:49:09, 21.32s/it]
    
    
     70%|███████████████████████████████████████████████████▌                      | 1480/2124 [5:32:08<4:13:00, 23.57s/it]
    
    
     70%|███████████████████████████████████████████████████▌                      | 1481/2124 [5:32:09<3:00:48, 16.87s/it]
    
    
     70%|███████████████████████████████████████████████████▋                      | 1482/2124 [5:32:12<2:13:22, 12.46s/it]
    
    
     70%|███████████████████████████████████████████████████▋                      | 1483/2124 [5:32:20<1:59:13, 11.16s/it]
    
    
     70%|███████████████████████████████████████████████████▋                      | 1484/2124 [5:32:58<3:27:09, 19.42s/it]
    
    
     70%|███████████████████████████████████████████████████▋                      | 1485/2124 [5:33:04<2:42:30, 15.26s/it]
    
    
     70%|███████████████████████████████████████████████████▊                      | 1486/2124 [5:33:37<3:38:46, 20.57s/it]
    
    
     70%|███████████████████████████████████████████████████▊                      | 1487/2124 [5:33:39<2:40:01, 15.07s/it]
    
    
     70%|███████████████████████████████████████████████████▊                      | 1488/2124 [5:33:41<1:56:38, 11.00s/it]
    
    
     70%|███████████████████████████████████████████████████▉                      | 1489/2124 [5:34:39<4:27:00, 25.23s/it]
    
    
     70%|███████████████████████████████████████████████████▉                      | 1490/2124 [5:34:41<3:13:44, 18.33s/it]
    
    
     70%|███████████████████████████████████████████████████▉                      | 1492/2124 [5:34:44<2:19:23, 13.23s/it]
    
    
     70%|████████████████████████████████████████████████████                      | 1493/2124 [5:34:47<1:45:59, 10.08s/it]
    
    
     70%|████████████████████████████████████████████████████                      | 1494/2124 [5:34:52<1:28:59,  8.48s/it]
    
    
     70%|████████████████████████████████████████████████████                      | 1495/2124 [5:34:56<1:15:06,  7.16s/it]
    
    
     70%|████████████████████████████████████████████████████                      | 1496/2124 [5:34:58<1:00:55,  5.82s/it]
    
    
     70%|████████████████████████████████████████████████████▏                     | 1497/2124 [5:35:05<1:03:46,  6.10s/it]
    
    
     71%|█████████████████████████████████████████████████████▌                      | 1498/2124 [5:35:07<51:05,  4.90s/it]
    
    
     71%|█████████████████████████████████████████████████████▋                      | 1499/2124 [5:35:09<40:04,  3.85s/it]
    
    
     71%|█████████████████████████████████████████████████████▋                      | 1500/2124 [5:35:12<40:07,  3.86s/it]
    
    
     71%|█████████████████████████████████████████████████████▋                      | 1501/2124 [5:35:15<34:56,  3.37s/it]
    
    
     71%|█████████████████████████████████████████████████████▋                      | 1502/2124 [5:35:16<28:26,  2.74s/it]
    
    
     71%|█████████████████████████████████████████████████████▊                      | 1503/2124 [5:35:16<21:30,  2.08s/it]
    
    
     71%|█████████████████████████████████████████████████████▊                      | 1504/2124 [5:35:19<21:32,  2.08s/it]
    
    
     71%|████████████████████████████████████████████████████▍                     | 1505/2124 [5:37:50<8:04:15, 46.94s/it]
    
    
     71%|████████████████████████████████████████████████████▍                     | 1506/2124 [5:37:51<5:42:27, 33.25s/it]
    
    
     71%|████████████████████████████████████████████████████▌                     | 1507/2124 [5:38:08<4:49:46, 28.18s/it]
    
    
     71%|████████████████████████████████████████████████████▌                     | 1508/2124 [5:38:49<5:29:06, 32.06s/it]
    
    
     71%|████████████████████████████████████████████████████▌                     | 1509/2124 [5:38:51<3:54:58, 22.92s/it]
    
    
     71%|████████████████████████████████████████████████████▌                     | 1510/2124 [5:38:52<2:47:40, 16.38s/it]
    
    
     71%|████████████████████████████████████████████████████▋                     | 1511/2124 [5:38:59<2:18:13, 13.53s/it]
    
    
     71%|████████████████████████████████████████████████████▋                     | 1512/2124 [5:39:33<3:21:25, 19.75s/it]
    
    
     71%|████████████████████████████████████████████████████                     | 1513/2124 [5:42:32<11:28:36, 67.62s/it]
    
    
     71%|████████████████████████████████████████████████████▋                     | 1514/2124 [5:42:34<8:06:27, 47.85s/it]
    
    
     71%|████████████████████████████████████████████████████▊                     | 1515/2124 [5:42:35<5:43:12, 33.81s/it]
    
    
     71%|████████████████████████████████████████████████████▊                     | 1516/2124 [5:44:19<9:17:33, 55.02s/it]
    
    
     71%|████████████████████████████████████████████████████▊                     | 1517/2124 [5:44:35<7:15:35, 43.06s/it]
    
    
     71%|████████████████████████████████████████████████████▉                     | 1518/2124 [5:44:35<5:05:25, 30.24s/it]
    
    
     72%|████████████████████████████████████████████████████▉                     | 1519/2124 [5:44:39<3:45:28, 22.36s/it]
    
    
     72%|████████████████████████████████████████████████████▉                     | 1520/2124 [5:44:52<3:17:04, 19.58s/it]
    
    
     72%|████████████████████████████████████████████████████▉                     | 1521/2124 [5:44:53<2:20:47, 14.01s/it]
    
    
     72%|█████████████████████████████████████████████████████                     | 1522/2124 [5:44:54<1:41:45, 10.14s/it]
    
    
     72%|█████████████████████████████████████████████████████                     | 1523/2124 [5:44:58<1:22:24,  8.23s/it]
    
    
     72%|█████████████████████████████████████████████████████                     | 1524/2124 [5:44:59<1:00:57,  6.10s/it]
    
    
     72%|█████████████████████████████████████████████████████▏                    | 1525/2124 [5:46:07<4:06:42, 24.71s/it]
    
    
     72%|█████████████████████████████████████████████████████▏                    | 1526/2124 [5:46:09<2:59:31, 18.01s/it]
    
    
     72%|█████████████████████████████████████████████████████▏                    | 1527/2124 [5:46:14<2:18:14, 13.89s/it]
    
    
     72%|█████████████████████████████████████████████████████▏                    | 1528/2124 [5:47:07<4:15:02, 25.68s/it]
    
    
     72%|█████████████████████████████████████████████████████▎                    | 1529/2124 [5:47:09<3:05:05, 18.66s/it]
    
    
     72%|█████████████████████████████████████████████████████▎                    | 1530/2124 [5:47:13<2:20:47, 14.22s/it]
    
    
     72%|█████████████████████████████████████████████████████▎                    | 1531/2124 [5:47:14<1:42:07, 10.33s/it]
    
    
     72%|█████████████████████████████████████████████████████▎                    | 1532/2124 [5:47:33<2:06:52, 12.86s/it]
    
    
     72%|█████████████████████████████████████████████████████▍                    | 1533/2124 [5:47:35<1:33:15,  9.47s/it]
    
    
     72%|█████████████████████████████████████████████████████▍                    | 1534/2124 [5:47:47<1:41:44, 10.35s/it]
    
    
     72%|█████████████████████████████████████████████████████▍                    | 1535/2124 [5:47:52<1:24:51,  8.64s/it]
    
    
     72%|█████████████████████████████████████████████████████▌                    | 1536/2124 [5:47:59<1:20:41,  8.23s/it]
    
    
     72%|█████████████████████████████████████████████████████▌                    | 1537/2124 [5:48:12<1:35:03,  9.72s/it]
    
    
     72%|█████████████████████████████████████████████████████▌                    | 1538/2124 [5:48:14<1:10:34,  7.23s/it]
    
    
     72%|█████████████████████████████████████████████████████▌                    | 1539/2124 [5:48:18<1:02:05,  6.37s/it]
    
    
     73%|█████████████████████████████████████████████████████▋                    | 1540/2124 [5:48:38<1:42:47, 10.56s/it]
    
    
     73%|█████████████████████████████████████████████████████▋                    | 1541/2124 [5:48:44<1:28:27,  9.10s/it]
    
    
     73%|█████████████████████████████████████████████████████▋                    | 1542/2124 [5:48:48<1:14:42,  7.70s/it]
    
    
     73%|███████████████████████████████████████████████████████▏                    | 1543/2124 [5:48:50<55:32,  5.74s/it]
    
    
     73%|███████████████████████████████████████████████████████▏                    | 1544/2124 [5:48:51<42:46,  4.42s/it]
    
    
     73%|███████████████████████████████████████████████████████▎                    | 1545/2124 [5:48:59<53:38,  5.56s/it]
    
    
     73%|███████████████████████████████████████████████████████▎                    | 1546/2124 [5:49:01<44:10,  4.59s/it]
    
    
     73%|███████████████████████████████████████████████████████▎                    | 1547/2124 [5:49:04<37:56,  3.95s/it]
    
    
     73%|███████████████████████████████████████████████████████▍                    | 1548/2124 [5:49:14<56:11,  5.85s/it]
    
    
     73%|███████████████████████████████████████████████████████▍                    | 1549/2124 [5:49:17<46:35,  4.86s/it]
    
    
     73%|███████████████████████████████████████████████████████▍                    | 1550/2124 [5:49:18<37:19,  3.90s/it]
    
    
     73%|███████████████████████████████████████████████████████▍                    | 1551/2124 [5:49:27<51:04,  5.35s/it]
    
    
     73%|███████████████████████████████████████████████████████▌                    | 1552/2124 [5:49:29<40:38,  4.26s/it]
    
    
     73%|███████████████████████████████████████████████████████▌                    | 1553/2124 [5:49:31<33:27,  3.52s/it]
    
    
     73%|███████████████████████████████████████████████████████▋                    | 1555/2124 [5:49:32<25:19,  2.67s/it]
    
    
     73%|███████████████████████████████████████████████████████▋                    | 1556/2124 [5:49:35<25:15,  2.67s/it]
    
    
     73%|███████████████████████████████████████████████████████▋                    | 1557/2124 [5:49:37<24:37,  2.61s/it]
    
    
     73%|███████████████████████████████████████████████████████▋                    | 1558/2124 [5:49:39<22:00,  2.33s/it]
    
    
     73%|███████████████████████████████████████████████████████▊                    | 1559/2124 [5:49:41<21:44,  2.31s/it]
    
    
     73%|███████████████████████████████████████████████████████▊                    | 1560/2124 [5:49:45<25:31,  2.72s/it]
    
    
     73%|███████████████████████████████████████████████████████▊                    | 1561/2124 [5:49:56<50:03,  5.34s/it]
    
    
     74%|███████████████████████████████████████████████████████▉                    | 1562/2124 [5:49:58<41:20,  4.41s/it]
    
    
     74%|███████████████████████████████████████████████████████▉                    | 1563/2124 [5:50:00<32:21,  3.46s/it]
    
    
     74%|███████████████████████████████████████████████████████▉                    | 1564/2124 [5:50:01<27:10,  2.91s/it]
    
    
     74%|██████████████████████████████████████████████████████▌                   | 1565/2124 [5:50:38<2:02:47, 13.18s/it]
    
    
     74%|██████████████████████████████████████████████████████▌                   | 1566/2124 [5:50:49<1:56:22, 12.51s/it]
    
    
     74%|██████████████████████████████████████████████████████▌                   | 1567/2124 [5:50:56<1:39:29, 10.72s/it]
    
    
     74%|██████████████████████████████████████████████████████▋                   | 1568/2124 [5:51:18<2:09:47, 14.01s/it]
    
    
     74%|██████████████████████████████████████████████████████▋                   | 1569/2124 [5:51:19<1:34:50, 10.25s/it]
    
    
     74%|██████████████████████████████████████████████████████▋                   | 1570/2124 [5:51:29<1:33:19, 10.11s/it]
    
    
     74%|██████████████████████████████████████████████████████▋                   | 1571/2124 [5:51:31<1:11:00,  7.70s/it]
    
    
     74%|████████████████████████████████████████████████████████▏                   | 1572/2124 [5:51:33<55:57,  6.08s/it]
    
    
     74%|██████████████████████████████████████████████████████▊                   | 1573/2124 [5:52:02<1:56:52, 12.73s/it]
    
    
     74%|██████████████████████████████████████████████████████▊                   | 1574/2124 [5:52:04<1:28:49,  9.69s/it]
    
    
     74%|██████████████████████████████████████████████████████▊                   | 1575/2124 [5:52:08<1:13:04,  7.99s/it]
    
    
     74%|██████████████████████████████████████████████████████▉                   | 1576/2124 [5:52:12<1:02:05,  6.80s/it]
    
    
     74%|████████████████████████████████████████████████████████▍                   | 1577/2124 [5:52:15<50:56,  5.59s/it]
    
    
     74%|████████████████████████████████████████████████████████▍                   | 1578/2124 [5:52:17<42:04,  4.62s/it]
    
    
     74%|███████████████████████████████████████████████████████                   | 1579/2124 [5:52:34<1:15:41,  8.33s/it]
    
    
     74%|████████████████████████████████████████████████████████▌                   | 1580/2124 [5:52:36<58:04,  6.41s/it]
    
    
     74%|████████████████████████████████████████████████████████▌                   | 1581/2124 [5:52:37<42:29,  4.69s/it]
    
    
     74%|████████████████████████████████████████████████████████▌                   | 1582/2124 [5:52:38<31:46,  3.52s/it]
    
    
     75%|████████████████████████████████████████████████████████▋                   | 1583/2124 [5:52:41<31:53,  3.54s/it]
    
    
     75%|████████████████████████████████████████████████████████▋                   | 1584/2124 [5:52:43<27:27,  3.05s/it]
    
    
     75%|████████████████████████████████████████████████████████▋                   | 1585/2124 [5:52:46<26:28,  2.95s/it]
    
    
     75%|████████████████████████████████████████████████████████▋                   | 1586/2124 [5:52:57<49:20,  5.50s/it]
    
    
     75%|████████████████████████████████████████████████████████▊                   | 1587/2124 [5:52:59<39:35,  4.42s/it]
    
    
     75%|████████████████████████████████████████████████████████▊                   | 1588/2124 [5:53:00<30:43,  3.44s/it]
    
    
     75%|████████████████████████████████████████████████████████▊                   | 1589/2124 [5:53:07<39:29,  4.43s/it]
    
    
     75%|████████████████████████████████████████████████████████▉                   | 1590/2124 [5:53:10<35:17,  3.97s/it]
    
    
     75%|████████████████████████████████████████████████████████▉                   | 1591/2124 [5:53:15<36:47,  4.14s/it]
    
    
     75%|████████████████████████████████████████████████████████▉                   | 1592/2124 [5:53:16<29:51,  3.37s/it]
    
    
     75%|█████████████████████████████████████████████████████████                   | 1593/2124 [5:53:20<31:53,  3.60s/it]
    
    
     75%|█████████████████████████████████████████████████████████                   | 1594/2124 [5:53:27<39:06,  4.43s/it]
    
    
     75%|███████████████████████████████████████████████████████▌                  | 1595/2124 [5:53:50<1:29:04, 10.10s/it]
    
    
     75%|███████████████████████████████████████████████████████▌                  | 1596/2124 [5:54:08<1:50:42, 12.58s/it]
    
    
     75%|███████████████████████████████████████████████████████▋                  | 1597/2124 [5:54:26<2:03:00, 14.00s/it]
    
    
     75%|███████████████████████████████████████████████████████▋                  | 1598/2124 [5:54:49<2:27:24, 16.81s/it]
    
    
     75%|███████████████████████████████████████████████████████▋                  | 1599/2124 [5:54:50<1:44:43, 11.97s/it]
    
    
     75%|███████████████████████████████████████████████████████▋                  | 1600/2124 [5:54:54<1:23:03,  9.51s/it]
    
    
     75%|███████████████████████████████████████████████████████▊                  | 1601/2124 [5:55:40<2:59:45, 20.62s/it]
    
    
     75%|███████████████████████████████████████████████████████▊                  | 1602/2124 [5:56:37<4:35:17, 31.64s/it]
    
    
     75%|███████████████████████████████████████████████████████▊                  | 1603/2124 [5:56:40<3:19:15, 22.95s/it]
    
    
     76%|███████████████████████████████████████████████████████▉                  | 1604/2124 [5:56:50<2:44:16, 18.95s/it]
    
    
     76%|███████████████████████████████████████████████████████▉                  | 1605/2124 [5:56:54<2:06:19, 14.60s/it]
    
    
     76%|███████████████████████████████████████████████████████▉                  | 1606/2124 [5:56:56<1:33:21, 10.81s/it]
    
    
     76%|███████████████████████████████████████████████████████▉                  | 1607/2124 [5:56:58<1:10:47,  8.22s/it]
    
    
     76%|████████████████████████████████████████████████████████                  | 1608/2124 [5:57:26<2:01:55, 14.18s/it]
    
    
     76%|████████████████████████████████████████████████████████                  | 1609/2124 [5:57:27<1:25:56, 10.01s/it]
    
    
     76%|████████████████████████████████████████████████████████                  | 1610/2124 [5:57:28<1:04:01,  7.47s/it]
    
    
     76%|█████████████████████████████████████████████████████████▋                  | 1611/2124 [5:57:31<51:13,  5.99s/it]
    
    
     76%|████████████████████████████████████████████████████████▏                 | 1612/2124 [5:57:55<1:37:43, 11.45s/it]
    
    
     76%|████████████████████████████████████████████████████████▏                 | 1613/2124 [5:57:57<1:13:40,  8.65s/it]
    
    
     76%|█████████████████████████████████████████████████████████▊                  | 1614/2124 [5:58:00<58:33,  6.89s/it]
    
    
     76%|█████████████████████████████████████████████████████████▊                  | 1615/2124 [5:58:03<49:45,  5.87s/it]
    
    
     76%|█████████████████████████████████████████████████████████▊                  | 1616/2124 [5:58:05<38:40,  4.57s/it]
    
    
     76%|█████████████████████████████████████████████████████████▊                  | 1617/2124 [5:58:05<27:53,  3.30s/it]
    
    
     76%|████████████████████████████████████████████████████████▎                 | 1618/2124 [5:58:34<1:32:23, 10.95s/it]
    
    
     76%|████████████████████████████████████████████████████████▍                 | 1619/2124 [6:00:01<4:43:58, 33.74s/it]
    
    
     76%|████████████████████████████████████████████████████████▍                 | 1620/2124 [6:00:10<3:40:06, 26.20s/it]
    
    
     76%|████████████████████████████████████████████████████████▍                 | 1621/2124 [6:00:12<2:39:15, 19.00s/it]
    
    
     76%|████████████████████████████████████████████████████████▌                 | 1622/2124 [6:00:15<2:00:09, 14.36s/it]
    
    
     76%|████████████████████████████████████████████████████████▌                 | 1623/2124 [6:00:19<1:33:55, 11.25s/it]
    
    
     76%|████████████████████████████████████████████████████████▌                 | 1624/2124 [6:00:22<1:11:37,  8.60s/it]
    
    
     77%|████████████████████████████████████████████████████████▌                 | 1625/2124 [6:03:11<7:51:58, 56.75s/it]
    
    
     77%|████████████████████████████████████████████████████████▋                 | 1626/2124 [6:03:12<5:32:00, 40.00s/it]
    
    
     77%|████████████████████████████████████████████████████████▋                 | 1627/2124 [6:04:14<6:27:04, 46.73s/it]
    
    
     77%|███████████████████████████████████████████████████████▉                 | 1628/2124 [6:06:38<10:27:59, 75.97s/it]
    
    
     77%|████████████████████████████████████████████████████████▊                 | 1629/2124 [6:06:43<7:31:32, 54.73s/it]
    
    
     77%|████████████████████████████████████████████████████████▊                 | 1630/2124 [6:06:44<5:16:38, 38.46s/it]
    
    
     77%|████████████████████████████████████████████████████████▊                 | 1631/2124 [6:06:46<3:46:49, 27.60s/it]
    
    
     77%|████████████████████████████████████████████████████████▊                 | 1632/2124 [6:09:05<8:19:42, 60.94s/it]
    
    
     77%|████████████████████████████████████████████████████████▉                 | 1633/2124 [6:09:06<5:52:01, 43.02s/it]
    
    
     77%|████████████████████████████████████████████████████████▉                 | 1634/2124 [6:09:15<4:28:32, 32.88s/it]
    
    
     77%|████████████████████████████████████████████████████████▉                 | 1635/2124 [6:09:17<3:10:40, 23.40s/it]
    
    
     77%|████████████████████████████████████████████████████████▉                 | 1636/2124 [6:09:30<2:46:20, 20.45s/it]
    
    
     77%|█████████████████████████████████████████████████████████                 | 1637/2124 [6:09:33<2:02:05, 15.04s/it]
    
    
     77%|█████████████████████████████████████████████████████████                 | 1638/2124 [6:09:33<1:26:11, 10.64s/it]
    
    
     77%|█████████████████████████████████████████████████████████                 | 1639/2124 [6:09:42<1:21:17, 10.06s/it]
    
    
     77%|█████████████████████████████████████████████████████████▏                | 1640/2124 [6:10:10<2:04:11, 15.40s/it]
    
    
     77%|█████████████████████████████████████████████████████████▏                | 1641/2124 [6:10:11<1:29:41, 11.14s/it]
    
    
     77%|█████████████████████████████████████████████████████████▏                | 1642/2124 [6:10:14<1:09:41,  8.68s/it]
    
    
     77%|██████████████████████████████████████████████████████████▊                 | 1643/2124 [6:10:15<52:16,  6.52s/it]
    
    
     77%|██████████████████████████████████████████████████████████▊                 | 1644/2124 [6:10:22<53:26,  6.68s/it]
    
    
     77%|██████████████████████████████████████████████████████████▊                 | 1645/2124 [6:10:24<40:16,  5.05s/it]
    
    
     77%|██████████████████████████████████████████████████████████▉                 | 1646/2124 [6:10:26<33:32,  4.21s/it]
    
    
     78%|██████████████████████████████████████████████████████████▉                 | 1647/2124 [6:10:38<52:49,  6.65s/it]
    
    
     78%|██████████████████████████████████████████████████████████▉                 | 1648/2124 [6:10:40<40:31,  5.11s/it]
    
    
     78%|███████████████████████████████████████████████████████████                 | 1649/2124 [6:10:44<37:51,  4.78s/it]
    
    
     78%|███████████████████████████████████████████████████████████                 | 1650/2124 [6:10:45<29:49,  3.78s/it]
    
    
     78%|███████████████████████████████████████████████████████████                 | 1651/2124 [6:10:54<40:50,  5.18s/it]
    
    
     78%|█████████████████████████████████████████████████████████▌                | 1652/2124 [6:12:07<3:21:41, 25.64s/it]
    
    
     78%|█████████████████████████████████████████████████████████▌                | 1653/2124 [6:12:31<3:17:00, 25.10s/it]
    
    
     78%|█████████████████████████████████████████████████████████▋                | 1654/2124 [6:12:39<2:36:29, 19.98s/it]
    
    
     78%|████████████████████████████████████████████████████████▉                | 1655/2124 [6:16:47<11:30:54, 88.39s/it]
    
    
     78%|█████████████████████████████████████████████████████████▋                | 1656/2124 [6:16:49<8:07:59, 62.56s/it]
    
    
     78%|█████████████████████████████████████████████████████████▋                | 1657/2124 [6:17:00<6:06:23, 47.07s/it]
    
    
     78%|█████████████████████████████████████████████████████████▊                | 1658/2124 [6:17:10<4:38:18, 35.83s/it]
    
    
     78%|█████████████████████████████████████████████████████████▊                | 1659/2124 [6:17:26<3:51:26, 29.86s/it]
    
    
     78%|█████████████████████████████████████████████████████████▊                | 1660/2124 [6:17:26<2:43:47, 21.18s/it]
    
    
     78%|████████████████████████████████████████████████████████▎               | 1661/2124 [6:25:48<21:15:58, 165.35s/it]
    
    
     78%|████████████████████████████████████████████████████████▎               | 1662/2124 [6:25:52<14:59:50, 116.86s/it]
    
    
     78%|█████████████████████████████████████████████████████████▏               | 1663/2124 [6:25:55<10:35:01, 82.65s/it]
    
    
     78%|█████████████████████████████████████████████████████████▉                | 1664/2124 [6:25:55<7:24:41, 58.00s/it]
    
    
     78%|██████████████████████████████████████████████████████████                | 1665/2124 [6:27:20<8:25:07, 66.03s/it]
    
    
     78%|██████████████████████████████████████████████████████████                | 1666/2124 [6:27:33<6:22:34, 50.12s/it]
    
    
     78%|██████████████████████████████████████████████████████████                | 1667/2124 [6:27:34<4:30:02, 35.46s/it]
    
    
     79%|██████████████████████████████████████████████████████████                | 1668/2124 [6:27:41<3:23:45, 26.81s/it]
    
    
     79%|██████████████████████████████████████████████████████████▏               | 1669/2124 [6:27:45<2:31:15, 19.95s/it]
    
    
     79%|██████████████████████████████████████████████████████████▏               | 1670/2124 [6:27:49<1:55:17, 15.24s/it]
    
    
     79%|██████████████████████████████████████████████████████████▏               | 1671/2124 [6:27:53<1:30:31, 11.99s/it]
    
    
     79%|██████████████████████████████████████████████████████████▎               | 1672/2124 [6:28:01<1:19:10, 10.51s/it]
    
    
     79%|██████████████████████████████████████████████████████████▎               | 1673/2124 [6:28:08<1:11:04,  9.46s/it]
    
    
     79%|███████████████████████████████████████████████████████████▉                | 1674/2124 [6:28:08<50:34,  6.74s/it]
    
    
     79%|██████████████████████████████████████████████████████████▎               | 1675/2124 [6:28:24<1:12:18,  9.66s/it]
    
    
     79%|██████████████████████████████████████████████████████████▍               | 1676/2124 [6:31:48<8:27:09, 67.92s/it]
    
    
     79%|██████████████████████████████████████████████████████████▍               | 1677/2124 [6:32:04<6:28:48, 52.19s/it]
    
    
     79%|██████████████████████████████████████████████████████████▍               | 1678/2124 [6:32:42<5:57:13, 48.06s/it]
    
    
     79%|██████████████████████████████████████████████████████████▍               | 1679/2124 [6:32:46<4:18:29, 34.85s/it]
    
    
     79%|██████████████████████████████████████████████████████████▌               | 1680/2124 [6:32:49<3:07:00, 25.27s/it]
    
    
     79%|██████████████████████████████████████████████████████████▌               | 1681/2124 [6:32:50<2:13:24, 18.07s/it]
    
    
     79%|██████████████████████████████████████████████████████████▌               | 1682/2124 [6:32:55<1:44:11, 14.14s/it]
    
    
     79%|██████████████████████████████████████████████████████████▋               | 1683/2124 [6:32:56<1:15:11, 10.23s/it]
    
    
     79%|████████████████████████████████████████████████████████████▎               | 1684/2124 [6:33:00<59:26,  8.11s/it]
    
    
     79%|████████████████████████████████████████████████████████████▎               | 1685/2124 [6:33:04<52:05,  7.12s/it]
    
    
     79%|████████████████████████████████████████████████████████████▎               | 1686/2124 [6:33:07<40:58,  5.61s/it]
    
    
     79%|████████████████████████████████████████████████████████████▎               | 1687/2124 [6:33:08<32:07,  4.41s/it]
    
    
     79%|████████████████████████████████████████████████████████████▍               | 1688/2124 [6:33:21<49:33,  6.82s/it]
    
    
     80%|████████████████████████████████████████████████████████████▍               | 1689/2124 [6:33:25<43:36,  6.02s/it]
    
    
     80%|████████████████████████████████████████████████████████████▍               | 1690/2124 [6:33:27<35:20,  4.89s/it]
    
    
     80%|████████████████████████████████████████████████████████████▌               | 1691/2124 [6:33:30<30:20,  4.20s/it]
    
    
     80%|████████████████████████████████████████████████████████████▌               | 1692/2124 [6:33:41<46:46,  6.50s/it]
    
    
     80%|████████████████████████████████████████████████████████████▌               | 1693/2124 [6:33:43<36:13,  5.04s/it]
    
    
     80%|████████████████████████████████████████████████████████████▌               | 1694/2124 [6:33:44<26:38,  3.72s/it]
    
    
     80%|███████████████████████████████████████████████████████████               | 1695/2124 [6:34:38<2:16:06, 19.04s/it]
    
    
     80%|███████████████████████████████████████████████████████████               | 1697/2124 [6:34:39<1:35:11, 13.38s/it]
    
    
     80%|███████████████████████████████████████████████████████████▏              | 1698/2124 [6:35:50<3:38:01, 30.71s/it]
    
    
     80%|███████████████████████████████████████████████████████████▏              | 1699/2124 [6:35:54<2:40:32, 22.67s/it]
    
    
     80%|███████████████████████████████████████████████████████████▏              | 1700/2124 [6:35:55<1:54:05, 16.14s/it]
    
    
     80%|███████████████████████████████████████████████████████████▎              | 1701/2124 [6:37:09<3:55:34, 33.41s/it]
    
    
     80%|███████████████████████████████████████████████████████████▎              | 1702/2124 [6:37:11<2:49:58, 24.17s/it]
    
    
     80%|███████████████████████████████████████████████████████████▎              | 1703/2124 [6:37:14<2:04:05, 17.69s/it]
    
    
     80%|███████████████████████████████████████████████████████████▎              | 1704/2124 [6:37:19<1:37:40, 13.95s/it]
    
    
     80%|███████████████████████████████████████████████████████████▍              | 1705/2124 [6:37:20<1:09:59, 10.02s/it]
    
    
     80%|███████████████████████████████████████████████████████████▍              | 1706/2124 [6:37:25<1:00:04,  8.62s/it]
    
    
     80%|█████████████████████████████████████████████████████████████               | 1707/2124 [6:37:26<42:48,  6.16s/it]
    
    
     80%|█████████████████████████████████████████████████████████████               | 1708/2124 [6:37:27<31:54,  4.60s/it]
    
    
     80%|█████████████████████████████████████████████████████████████▏              | 1709/2124 [6:37:28<26:07,  3.78s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▏              | 1710/2124 [6:37:34<29:55,  4.34s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▏              | 1711/2124 [6:37:35<23:36,  3.43s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▎              | 1712/2124 [6:37:36<18:49,  2.74s/it]
    
    
     81%|███████████████████████████████████████████████████████████▋              | 1713/2124 [6:38:02<1:05:38,  9.58s/it]
    
    
     81%|███████████████████████████████████████████████████████████▋              | 1714/2124 [6:38:21<1:25:15, 12.48s/it]
    
    
     81%|███████████████████████████████████████████████████████████▊              | 1715/2124 [6:38:23<1:02:47,  9.21s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▍              | 1716/2124 [6:38:26<49:59,  7.35s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▍              | 1717/2124 [6:38:26<35:48,  5.28s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▍              | 1718/2124 [6:38:28<28:11,  4.17s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▌              | 1719/2124 [6:38:29<21:29,  3.18s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▌              | 1720/2124 [6:38:33<23:00,  3.42s/it]
    
    
     81%|███████████████████████████████████████████████████████████▉              | 1721/2124 [6:38:55<1:00:09,  8.96s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▋              | 1723/2124 [6:38:56<42:53,  6.42s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▋              | 1724/2124 [6:38:58<35:29,  5.32s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▋              | 1725/2124 [6:39:00<28:05,  4.22s/it]
    
    
     81%|████████████████████████████████████████████████████████████▏             | 1726/2124 [6:40:07<2:32:49, 23.04s/it]
    
    
     81%|████████████████████████████████████████████████████████████▏             | 1727/2124 [6:40:08<1:49:43, 16.58s/it]
    
    
     81%|████████████████████████████████████████████████████████████▏             | 1728/2124 [6:40:10<1:19:41, 12.07s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▊              | 1729/2124 [6:40:11<57:15,  8.70s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▉              | 1730/2124 [6:40:12<42:18,  6.44s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▉              | 1731/2124 [6:40:18<40:45,  6.22s/it]
    
    
     82%|█████████████████████████████████████████████████████████████▉              | 1732/2124 [6:40:19<30:22,  4.65s/it]
    
    
     82%|██████████████████████████████████████████████████████████████              | 1733/2124 [6:40:32<48:01,  7.37s/it]
    
    
     82%|████████████████████████████████████████████████████████████▍             | 1734/2124 [6:40:55<1:18:17, 12.04s/it]
    
    
     82%|██████████████████████████████████████████████████████████████              | 1735/2124 [6:40:57<58:10,  8.97s/it]
    
    
     82%|██████████████████████████████████████████████████████████████              | 1736/2124 [6:41:05<55:37,  8.60s/it]
    
    
     82%|██████████████████████████████████████████████████████████████▏             | 1737/2124 [6:41:08<44:13,  6.86s/it]
    
    
     82%|██████████████████████████████████████████████████████████████▏             | 1738/2124 [6:41:11<36:23,  5.66s/it]
    
    
     82%|██████████████████████████████████████████████████████████████▏             | 1739/2124 [6:41:17<37:48,  5.89s/it]
    
    
     82%|██████████████████████████████████████████████████████████████▎             | 1740/2124 [6:41:18<27:26,  4.29s/it]
    
    
     82%|████████████████████████████████████████████████████████████▋             | 1741/2124 [6:42:56<3:26:49, 32.40s/it]
    
    
     82%|████████████████████████████████████████████████████████████▋             | 1742/2124 [6:42:57<2:27:10, 23.12s/it]
    
    
     82%|████████████████████████████████████████████████████████████▋             | 1743/2124 [6:42:58<1:44:55, 16.52s/it]
    
    
     82%|████████████████████████████████████████████████████████████▊             | 1744/2124 [6:43:26<2:06:46, 20.02s/it]
    
    
     82%|████████████████████████████████████████████████████████████▊             | 1745/2124 [6:43:28<1:32:06, 14.58s/it]
    
    
     82%|████████████████████████████████████████████████████████████▊             | 1746/2124 [6:43:35<1:16:57, 12.22s/it]
    
    
     82%|████████████████████████████████████████████████████████████▊             | 1747/2124 [6:43:46<1:15:24, 12.00s/it]
    
    
     82%|████████████████████████████████████████████████████████████▉             | 1748/2124 [6:44:25<2:04:38, 19.89s/it]
    
    
     82%|████████████████████████████████████████████████████████████▉             | 1749/2124 [6:44:26<1:29:58, 14.40s/it]
    
    
     82%|████████████████████████████████████████████████████████████▉             | 1750/2124 [6:44:30<1:09:16, 11.11s/it]
    
    
     82%|██████████████████████████████████████████████████████████████▋             | 1751/2124 [6:44:32<52:27,  8.44s/it]
    
    
     82%|██████████████████████████████████████████████████████████████▋             | 1752/2124 [6:44:36<44:52,  7.24s/it]
    
    
     83%|██████████████████████████████████████████████████████████████▋             | 1753/2124 [6:44:38<35:03,  5.67s/it]
    
    
     83%|██████████████████████████████████████████████████████████████▊             | 1754/2124 [6:44:45<36:29,  5.92s/it]
    
    
     83%|██████████████████████████████████████████████████████████████▊             | 1755/2124 [6:44:46<27:21,  4.45s/it]
    
    
     83%|█████████████████████████████████████████████████████████████▏            | 1756/2124 [6:45:25<1:31:11, 14.87s/it]
    
    
     83%|█████████████████████████████████████████████████████████████▏            | 1757/2124 [6:45:27<1:07:00, 10.95s/it]
    
    
     83%|██████████████████████████████████████████████████████████████▉             | 1758/2124 [6:45:28<48:17,  7.92s/it]
    
    
     83%|██████████████████████████████████████████████████████████████▉             | 1759/2124 [6:45:29<36:34,  6.01s/it]
    
    
     83%|█████████████████████████████████████████████████████████████▎            | 1760/2124 [6:46:15<1:48:45, 17.93s/it]
    
    
     83%|█████████████████████████████████████████████████████████████▎            | 1761/2124 [6:46:19<1:23:13, 13.76s/it]
    
    
     83%|█████████████████████████████████████████████████████████████▍            | 1762/2124 [6:46:21<1:02:19, 10.33s/it]
    
    
     83%|███████████████████████████████████████████████████████████████             | 1763/2124 [6:46:23<46:43,  7.76s/it]
    
    
     83%|█████████████████████████████████████████████████████████████▍            | 1764/2124 [6:48:07<3:39:09, 36.53s/it]
    
    
     83%|█████████████████████████████████████████████████████████████▍            | 1765/2124 [6:48:12<2:42:47, 27.21s/it]
    
    
     83%|█████████████████████████████████████████████████████████████▌            | 1766/2124 [6:48:13<1:54:14, 19.15s/it]
    
    
     83%|█████████████████████████████████████████████████████████████▌            | 1767/2124 [6:48:14<1:21:29, 13.70s/it]
    
    
     83%|█████████████████████████████████████████████████████████████▌            | 1768/2124 [6:48:16<1:00:37, 10.22s/it]
    
    
     83%|███████████████████████████████████████████████████████████████▎            | 1769/2124 [6:48:18<46:45,  7.90s/it]
    
    
     83%|███████████████████████████████████████████████████████████████▎            | 1770/2124 [6:48:25<45:14,  7.67s/it]
    
    
     83%|███████████████████████████████████████████████████████████████▎            | 1771/2124 [6:48:30<39:09,  6.66s/it]
    
    
     83%|███████████████████████████████████████████████████████████████▍            | 1772/2124 [6:48:31<29:20,  5.00s/it]
    
    
     83%|███████████████████████████████████████████████████████████████▍            | 1773/2124 [6:48:32<23:19,  3.99s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▍            | 1774/2124 [6:48:34<18:43,  3.21s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▌            | 1775/2124 [6:48:37<18:01,  3.10s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▌            | 1776/2124 [6:48:50<35:43,  6.16s/it]
    
    
     84%|█████████████████████████████████████████████████████████████▉            | 1777/2124 [6:49:30<1:34:21, 16.32s/it]
    
    
     84%|█████████████████████████████████████████████████████████████▉            | 1778/2124 [6:49:32<1:09:37, 12.07s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▋            | 1779/2124 [6:49:34<51:05,  8.88s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▋            | 1780/2124 [6:49:40<46:29,  8.11s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▋            | 1781/2124 [6:49:44<38:53,  6.80s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▊            | 1782/2124 [6:49:46<30:29,  5.35s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▊            | 1783/2124 [6:49:48<25:41,  4.52s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▊            | 1784/2124 [6:49:55<29:06,  5.14s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▊            | 1785/2124 [6:49:57<24:51,  4.40s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▉            | 1786/2124 [6:49:59<20:23,  3.62s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▉            | 1787/2124 [6:50:05<23:32,  4.19s/it]
    
    
     84%|███████████████████████████████████████████████████████████████▉            | 1788/2124 [6:50:15<34:07,  6.09s/it]
    
    
     84%|████████████████████████████████████████████████████████████████            | 1789/2124 [6:50:17<27:16,  4.88s/it]
    
    
     84%|████████████████████████████████████████████████████████████████            | 1790/2124 [6:50:19<22:27,  4.03s/it]
    
    
     84%|████████████████████████████████████████████████████████████████            | 1791/2124 [6:50:22<20:04,  3.62s/it]
    
    
     84%|██████████████████████████████████████████████████████████████▍           | 1792/2124 [6:51:38<2:19:56, 25.29s/it]
    
    
     84%|██████████████████████████████████████████████████████████████▍           | 1793/2124 [6:51:40<1:41:17, 18.36s/it]
    
    
     84%|██████████████████████████████████████████████████████████████▌           | 1794/2124 [6:52:54<3:12:26, 34.99s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▌           | 1795/2124 [6:52:55<2:15:44, 24.76s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▌           | 1796/2124 [6:52:57<1:37:53, 17.91s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▌           | 1797/2124 [6:52:58<1:09:56, 12.83s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▋           | 1798/2124 [6:54:52<3:54:30, 43.16s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▋           | 1799/2124 [6:55:00<2:57:35, 32.78s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▋           | 1800/2124 [6:55:01<2:06:04, 23.35s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▋           | 1801/2124 [6:55:04<1:32:17, 17.14s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▊           | 1802/2124 [6:55:05<1:05:27, 12.20s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▊           | 1803/2124 [6:55:17<1:05:33, 12.25s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▊           | 1804/2124 [6:55:46<1:32:05, 17.27s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▉           | 1805/2124 [6:55:52<1:13:29, 13.82s/it]
    
    
     85%|████████████████████████████████████████████████████████████████▌           | 1806/2124 [6:55:54<54:43, 10.33s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▉           | 1807/2124 [6:56:40<1:51:18, 21.07s/it]
    
    
     85%|██████████████████████████████████████████████████████████████▉           | 1808/2124 [6:57:51<3:09:51, 36.05s/it]
    
    
     85%|███████████████████████████████████████████████████████████████           | 1809/2124 [6:58:32<3:17:04, 37.54s/it]
    
    
     85%|███████████████████████████████████████████████████████████████           | 1810/2124 [6:58:33<2:18:33, 26.48s/it]
    
    
     85%|███████████████████████████████████████████████████████████████           | 1811/2124 [6:58:34<1:38:40, 18.92s/it]
    
    
     85%|███████████████████████████████████████████████████████████████▏          | 1812/2124 [6:58:37<1:13:01, 14.04s/it]
    
    
     85%|███████████████████████████████████████████████████████████████▏          | 1813/2124 [7:01:28<5:17:04, 61.17s/it]
    
    
     85%|███████████████████████████████████████████████████████████████▏          | 1814/2124 [7:01:31<3:46:09, 43.77s/it]
    
    
     85%|███████████████████████████████████████████████████████████████▏          | 1815/2124 [7:01:32<2:39:22, 30.95s/it]
    
    
     85%|███████████████████████████████████████████████████████████████▎          | 1816/2124 [7:01:34<1:54:28, 22.30s/it]
    
    
     86%|███████████████████████████████████████████████████████████████▎          | 1817/2124 [7:01:36<1:22:01, 16.03s/it]
    
    
     86%|███████████████████████████████████████████████████████████████▎          | 1818/2124 [7:01:45<1:11:05, 13.94s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████           | 1819/2124 [7:01:45<49:58,  9.83s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████           | 1820/2124 [7:01:48<38:40,  7.63s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████▏          | 1821/2124 [7:01:49<28:50,  5.71s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████▏          | 1823/2124 [7:01:51<21:43,  4.33s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████▎          | 1824/2124 [7:01:52<16:44,  3.35s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████▎          | 1825/2124 [7:01:53<12:28,  2.50s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████▎          | 1826/2124 [7:01:57<15:03,  3.03s/it]
    
    
     86%|███████████████████████████████████████████████████████████████▋          | 1827/2124 [7:02:40<1:15:18, 15.21s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████▍          | 1828/2124 [7:02:42<54:25, 11.03s/it]
    
    
     86%|███████████████████████████████████████████████████████████████▋          | 1829/2124 [7:03:55<2:25:21, 29.56s/it]
    
    
     86%|███████████████████████████████████████████████████████████████▊          | 1830/2124 [7:04:15<2:10:58, 26.73s/it]
    
    
     86%|███████████████████████████████████████████████████████████████▊          | 1831/2124 [7:04:15<1:31:51, 18.81s/it]
    
    
     86%|███████████████████████████████████████████████████████████████▊          | 1832/2124 [7:04:16<1:05:50, 13.53s/it]
    
    
     86%|███████████████████████████████████████████████████████████████▊          | 1833/2124 [7:04:28<1:02:57, 12.98s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████▌          | 1834/2124 [7:04:30<46:28,  9.62s/it]
    
    
     86%|███████████████████████████████████████████████████████████████▉          | 1835/2124 [7:04:58<1:13:35, 15.28s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████▋          | 1836/2124 [7:05:00<54:33, 11.37s/it]
    
    
     86%|████████████████████████████████████████████████████████████████          | 1837/2124 [7:06:03<2:07:55, 26.75s/it]
    
    
     87%|████████████████████████████████████████████████████████████████          | 1838/2124 [7:06:07<1:35:37, 20.06s/it]
    
    
     87%|████████████████████████████████████████████████████████████████          | 1839/2124 [7:06:08<1:08:07, 14.34s/it]
    
    
     87%|█████████████████████████████████████████████████████████████████▊          | 1841/2124 [7:06:10<48:11, 10.22s/it]
    
    
     87%|█████████████████████████████████████████████████████████████████▉          | 1842/2124 [7:06:12<37:02,  7.88s/it]
    
    
     87%|█████████████████████████████████████████████████████████████████▉          | 1843/2124 [7:06:15<29:45,  6.35s/it]
    
    
     87%|█████████████████████████████████████████████████████████████████▉          | 1844/2124 [7:06:17<24:01,  5.15s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████          | 1845/2124 [7:06:39<47:09, 10.14s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████          | 1846/2124 [7:06:42<36:50,  7.95s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████          | 1847/2124 [7:06:56<45:12,  9.79s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████          | 1848/2124 [7:07:06<45:38,  9.92s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████▏         | 1849/2124 [7:07:09<35:04,  7.65s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████▏         | 1850/2124 [7:07:10<26:58,  5.91s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████▏         | 1851/2124 [7:07:12<21:14,  4.67s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████▎         | 1852/2124 [7:07:14<17:47,  3.92s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████▎         | 1853/2124 [7:07:17<16:01,  3.55s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████▎         | 1854/2124 [7:07:30<28:23,  6.31s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████▎         | 1855/2124 [7:07:33<24:40,  5.50s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████▍         | 1856/2124 [7:07:35<19:29,  4.36s/it]
    
    
     87%|██████████████████████████████████████████████████████████████████▍         | 1857/2124 [7:07:46<28:16,  6.36s/it]
    
    
     87%|████████████████████████████████████████████████████████████████▋         | 1858/2124 [7:08:49<1:43:15, 23.29s/it]
    
    
     88%|████████████████████████████████████████████████████████████████▊         | 1859/2124 [7:08:49<1:12:30, 16.42s/it]
    
    
     88%|██████████████████████████████████████████████████████████████████▌         | 1860/2124 [7:08:50<51:47, 11.77s/it]
    
    
     88%|██████████████████████████████████████████████████████████████████▌         | 1861/2124 [7:08:52<38:23,  8.76s/it]
    
    
     88%|██████████████████████████████████████████████████████████████████▋         | 1862/2124 [7:08:54<28:55,  6.62s/it]
    
    
     88%|████████████████████████████████████████████████████████████████▉         | 1863/2124 [7:10:24<2:18:42, 31.89s/it]
    
    
     88%|████████████████████████████████████████████████████████████████▉         | 1864/2124 [7:10:25<1:37:17, 22.45s/it]
    
    
     88%|████████████████████████████████████████████████████████████████▉         | 1865/2124 [7:10:26<1:08:58, 15.98s/it]
    
    
     88%|█████████████████████████████████████████████████████████████████         | 1866/2124 [7:10:36<1:01:39, 14.34s/it]
    
    
     88%|██████████████████████████████████████████████████████████████████▊         | 1867/2124 [7:10:37<44:02, 10.28s/it]
    
    
     88%|██████████████████████████████████████████████████████████████████▊         | 1868/2124 [7:10:41<36:17,  8.51s/it]
    
    
     88%|██████████████████████████████████████████████████████████████████▉         | 1869/2124 [7:10:42<26:18,  6.19s/it]
    
    
     88%|██████████████████████████████████████████████████████████████████▉         | 1870/2124 [7:10:43<19:55,  4.71s/it]
    
    
     88%|██████████████████████████████████████████████████████████████████▉         | 1871/2124 [7:10:50<22:00,  5.22s/it]
    
    
     88%|██████████████████████████████████████████████████████████████████▉         | 1872/2124 [7:10:51<16:17,  3.88s/it]
    
    
     88%|███████████████████████████████████████████████████████████████████         | 1873/2124 [7:10:52<13:03,  3.12s/it]
    
    
     88%|███████████████████████████████████████████████████████████████████         | 1874/2124 [7:11:00<18:36,  4.47s/it]
    
    
     88%|███████████████████████████████████████████████████████████████████         | 1875/2124 [7:11:01<15:06,  3.64s/it]
    
    
     88%|███████████████████████████████████████████████████████████████████▏        | 1876/2124 [7:11:09<19:59,  4.84s/it]
    
    
     88%|███████████████████████████████████████████████████████████████████▏        | 1877/2124 [7:11:10<15:22,  3.74s/it]
    
    
     88%|███████████████████████████████████████████████████████████████████▏        | 1878/2124 [7:11:11<12:14,  2.99s/it]
    
    
     88%|███████████████████████████████████████████████████████████████████▏        | 1879/2124 [7:11:16<14:48,  3.63s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▎        | 1880/2124 [7:11:18<11:45,  2.89s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▎        | 1881/2124 [7:11:19<09:38,  2.38s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▎        | 1882/2124 [7:11:24<13:27,  3.34s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▍        | 1883/2124 [7:12:05<58:23, 14.54s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▍        | 1884/2124 [7:12:06<42:03, 10.52s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▍        | 1885/2124 [7:12:08<31:18,  7.86s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▍        | 1886/2124 [7:12:09<22:56,  5.78s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▌        | 1887/2124 [7:12:10<17:42,  4.48s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████▊        | 1888/2124 [7:13:40<1:57:51, 29.97s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████▊        | 1889/2124 [7:13:46<1:29:37, 22.88s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████▊        | 1890/2124 [7:13:47<1:03:58, 16.40s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▋        | 1891/2124 [7:13:51<48:59, 12.62s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▋        | 1892/2124 [7:13:56<39:27, 10.21s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▋        | 1893/2124 [7:13:56<27:48,  7.22s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▊        | 1894/2124 [7:13:57<21:12,  5.53s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▊        | 1895/2124 [7:14:06<24:00,  6.29s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▊        | 1896/2124 [7:14:08<19:25,  5.11s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▉        | 1897/2124 [7:14:10<16:06,  4.26s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▉        | 1898/2124 [7:14:12<13:34,  3.61s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▉        | 1899/2124 [7:14:16<13:47,  3.68s/it]
    
    
     89%|███████████████████████████████████████████████████████████████████▉        | 1900/2124 [7:14:22<16:00,  4.29s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████        | 1901/2124 [7:14:24<13:34,  3.65s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████        | 1902/2124 [7:14:35<21:58,  5.94s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████        | 1903/2124 [7:14:43<23:42,  6.44s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▏       | 1904/2124 [7:14:44<17:31,  4.78s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▏       | 1905/2124 [7:14:45<13:24,  3.67s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▏       | 1906/2124 [7:15:04<30:26,  8.38s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▏       | 1907/2124 [7:15:05<22:33,  6.24s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▎       | 1908/2124 [7:15:13<23:32,  6.54s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▎       | 1909/2124 [7:15:15<18:32,  5.18s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▎       | 1910/2124 [7:15:16<14:46,  4.14s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▍       | 1911/2124 [7:15:17<10:50,  3.05s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▍       | 1912/2124 [7:16:00<53:13, 15.06s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▍       | 1913/2124 [7:16:17<54:55, 15.62s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▍       | 1914/2124 [7:16:18<39:44, 11.36s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▌       | 1915/2124 [7:16:22<30:59,  8.90s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▌       | 1916/2124 [7:16:32<32:05,  9.26s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▋       | 1918/2124 [7:17:06<40:07, 11.69s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▋       | 1919/2124 [7:17:09<30:45,  9.00s/it]
    
    
     90%|████████████████████████████████████████████████████████████████████▋       | 1920/2124 [7:17:12<24:14,  7.13s/it]
    
    
     90%|██████████████████████████████████████████████████████████████████▉       | 1921/2124 [7:21:03<4:11:40, 74.39s/it]
    
    
     90%|██████████████████████████████████████████████████████████████████▉       | 1922/2124 [7:21:05<2:57:01, 52.58s/it]
    
    
     91%|██████████████████████████████████████████████████████████████████▉       | 1923/2124 [7:21:09<2:07:22, 38.02s/it]
    
    
     91%|███████████████████████████████████████████████████████████████████       | 1924/2124 [7:21:12<1:31:22, 27.41s/it]
    
    
     91%|███████████████████████████████████████████████████████████████████       | 1925/2124 [7:21:13<1:04:54, 19.57s/it]
    
    
     91%|████████████████████████████████████████████████████████████████████▉       | 1926/2124 [7:21:13<45:45, 13.86s/it]
    
    
     91%|████████████████████████████████████████████████████████████████████▉       | 1927/2124 [7:21:15<33:31, 10.21s/it]
    
    
     91%|████████████████████████████████████████████████████████████████████▉       | 1928/2124 [7:21:18<26:38,  8.16s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████       | 1929/2124 [7:21:24<23:49,  7.33s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████       | 1930/2124 [7:21:25<17:33,  5.43s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████       | 1931/2124 [7:21:28<15:00,  4.67s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▏      | 1932/2124 [7:21:39<21:08,  6.61s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▏      | 1933/2124 [7:21:42<17:46,  5.59s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▏      | 1934/2124 [7:21:45<15:00,  4.74s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▏      | 1935/2124 [7:21:48<13:46,  4.37s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▎      | 1936/2124 [7:21:50<10:54,  3.48s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▎      | 1937/2124 [7:21:51<08:19,  2.67s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▎      | 1938/2124 [7:21:51<06:19,  2.04s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▍      | 1939/2124 [7:21:52<05:09,  1.67s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▍      | 1940/2124 [7:21:53<04:32,  1.48s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▍      | 1941/2124 [7:21:54<03:53,  1.28s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▍      | 1942/2124 [7:21:55<04:09,  1.37s/it]
    
    
     91%|█████████████████████████████████████████████████████████████████████▌      | 1943/2124 [7:21:57<04:20,  1.44s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▌      | 1944/2124 [7:22:17<21:00,  7.00s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▌      | 1945/2124 [7:22:19<16:20,  5.48s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▋      | 1946/2124 [7:22:26<17:34,  5.93s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▋      | 1947/2124 [7:22:29<14:39,  4.97s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▋      | 1948/2124 [7:22:34<14:38,  4.99s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▋      | 1949/2124 [7:22:34<10:57,  3.76s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▊      | 1950/2124 [7:22:42<14:14,  4.91s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▊      | 1951/2124 [7:22:42<10:16,  3.57s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▊      | 1952/2124 [7:22:45<09:30,  3.32s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▉      | 1953/2124 [7:22:47<08:09,  2.87s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▉      | 1954/2124 [7:22:50<08:36,  3.04s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▉      | 1955/2124 [7:22:58<12:35,  4.47s/it]
    
    
     92%|█████████████████████████████████████████████████████████████████████▉      | 1956/2124 [7:23:03<12:29,  4.46s/it]
    
    
     92%|██████████████████████████████████████████████████████████████████████      | 1957/2124 [7:23:05<10:25,  3.75s/it]
    
    
     92%|██████████████████████████████████████████████████████████████████████      | 1958/2124 [7:23:07<09:13,  3.33s/it]
    
    
     92%|██████████████████████████████████████████████████████████████████████      | 1959/2124 [7:23:09<07:59,  2.91s/it]
    
    
     92%|██████████████████████████████████████████████████████████████████████▏     | 1960/2124 [7:23:14<09:23,  3.44s/it]
    
    
     92%|██████████████████████████████████████████████████████████████████████▏     | 1961/2124 [7:23:15<07:34,  2.79s/it]
    
    
     92%|██████████████████████████████████████████████████████████████████████▏     | 1962/2124 [7:23:18<07:28,  2.77s/it]
    
    
     92%|████████████████████████████████████████████████████████████████████▍     | 1963/2124 [7:24:53<1:22:15, 30.66s/it]
    
    
     92%|████████████████████████████████████████████████████████████████████▍     | 1964/2124 [7:25:06<1:07:00, 25.13s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▎     | 1965/2124 [7:25:08<48:10, 18.18s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▎     | 1966/2124 [7:25:09<34:23, 13.06s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▍     | 1967/2124 [7:25:10<25:08,  9.61s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▍     | 1968/2124 [7:25:13<19:20,  7.44s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▍     | 1969/2124 [7:25:18<17:54,  6.93s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▍     | 1970/2124 [7:25:19<13:12,  5.15s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▌     | 1971/2124 [7:25:26<14:07,  5.54s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▌     | 1972/2124 [7:25:27<10:35,  4.18s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▌     | 1973/2124 [7:25:29<08:35,  3.41s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▋     | 1974/2124 [7:26:25<48:27, 19.38s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████▊     | 1975/2124 [7:28:33<2:08:37, 51.80s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████▊     | 1976/2124 [7:28:34<1:30:41, 36.77s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████▉     | 1977/2124 [7:30:54<2:45:24, 67.51s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████▉     | 1978/2124 [7:30:58<1:58:24, 48.66s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████▉     | 1979/2124 [7:31:02<1:25:11, 35.25s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████▉     | 1980/2124 [7:31:07<1:02:43, 26.14s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▉     | 1981/2124 [7:31:09<44:45, 18.78s/it]
    
    
     93%|██████████████████████████████████████████████████████████████████████▉     | 1982/2124 [7:31:11<32:53, 13.90s/it]
    
    
     93%|█████████████████████████████████████████████████████████████████████     | 1983/2124 [7:34:39<2:49:27, 72.11s/it]
    
    
     93%|█████████████████████████████████████████████████████████████████████     | 1984/2124 [7:34:42<1:59:45, 51.32s/it]
    
    
     93%|█████████████████████████████████████████████████████████████████████▏    | 1985/2124 [7:34:47<1:26:34, 37.37s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████▏    | 1986/2124 [7:34:51<1:03:14, 27.50s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████     | 1987/2124 [7:34:54<45:58, 20.13s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▏    | 1988/2124 [7:35:00<36:08, 15.95s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▏    | 1989/2124 [7:35:01<25:43, 11.43s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▏    | 1991/2124 [7:35:02<18:01,  8.13s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▎    | 1992/2124 [7:35:04<14:03,  6.39s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▎    | 1993/2124 [7:35:06<10:48,  4.95s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▎    | 1994/2124 [7:35:07<08:03,  3.72s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████▌    | 1995/2124 [7:37:26<1:35:11, 44.27s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████▌    | 1996/2124 [7:38:29<1:46:24, 49.88s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████▌    | 1997/2124 [7:38:30<1:14:36, 35.25s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▍    | 1998/2124 [7:38:32<53:16, 25.37s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▌    | 1999/2124 [7:38:41<42:47, 20.54s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▌    | 2000/2124 [7:38:42<30:03, 14.55s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▌    | 2001/2124 [7:38:46<23:22, 11.41s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▋    | 2002/2124 [7:38:47<16:55,  8.32s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▋    | 2003/2124 [7:38:48<12:30,  6.20s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▋    | 2004/2124 [7:38:52<10:54,  5.46s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▋    | 2005/2124 [7:38:54<08:57,  4.52s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▊    | 2006/2124 [7:38:56<07:06,  3.62s/it]
    
    
     94%|███████████████████████████████████████████████████████████████████████▊    | 2007/2124 [7:38:56<05:14,  2.68s/it]
    
    
     95%|███████████████████████████████████████████████████████████████████████▊    | 2008/2124 [7:38:58<04:27,  2.31s/it]
    
    
     95%|███████████████████████████████████████████████████████████████████████▉    | 2009/2124 [7:38:59<03:48,  1.99s/it]
    
    
     95%|███████████████████████████████████████████████████████████████████████▉    | 2010/2124 [7:39:43<27:39, 14.55s/it]
    
    
     95%|███████████████████████████████████████████████████████████████████████▉    | 2011/2124 [7:39:44<19:39, 10.43s/it]
    
    
     95%|███████████████████████████████████████████████████████████████████████▉    | 2012/2124 [7:39:46<14:40,  7.86s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████    | 2013/2124 [7:39:48<11:29,  6.21s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████    | 2014/2124 [7:39:58<13:19,  7.27s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████    | 2015/2124 [7:40:02<11:25,  6.29s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▏   | 2016/2124 [7:40:03<08:34,  4.76s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▏   | 2017/2124 [7:40:05<06:53,  3.87s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▏   | 2018/2124 [7:40:06<05:25,  3.07s/it]
    
    
     95%|██████████████████████████████████████████████████████████████████████▎   | 2019/2124 [7:42:05<1:06:16, 37.87s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▎   | 2020/2124 [7:42:06<46:36, 26.89s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▎   | 2021/2124 [7:42:08<33:05, 19.28s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▎   | 2022/2124 [7:42:13<25:40, 15.11s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▍   | 2023/2124 [7:42:15<18:35, 11.05s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▍   | 2024/2124 [7:42:26<18:38, 11.18s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▍   | 2025/2124 [7:42:27<13:19,  8.07s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▍   | 2026/2124 [7:42:39<15:02,  9.21s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▌   | 2027/2124 [7:43:52<45:59, 28.45s/it]
    
    
     95%|████████████████████████████████████████████████████████████████████████▌   | 2028/2124 [7:43:54<32:38, 20.40s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▌   | 2029/2124 [7:43:56<23:29, 14.83s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▋   | 2030/2124 [7:44:07<21:42, 13.86s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▋   | 2031/2124 [7:44:09<15:47, 10.19s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▋   | 2032/2124 [7:44:11<11:51,  7.73s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▋   | 2033/2124 [7:44:12<08:46,  5.79s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▊   | 2034/2124 [7:44:31<14:31,  9.68s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▊   | 2035/2124 [7:44:35<11:48,  7.96s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▊   | 2036/2124 [7:44:37<08:56,  6.09s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▉   | 2037/2124 [7:44:43<08:57,  6.17s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▉   | 2038/2124 [7:45:14<19:20, 13.49s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▉   | 2039/2124 [7:45:17<14:53, 10.51s/it]
    
    
     96%|████████████████████████████████████████████████████████████████████████▉   | 2040/2124 [7:45:40<20:03, 14.32s/it]
    
    
     96%|█████████████████████████████████████████████████████████████████████████   | 2041/2124 [7:45:42<14:36, 10.56s/it]
    
    
     96%|█████████████████████████████████████████████████████████████████████████   | 2042/2124 [7:45:45<11:16,  8.25s/it]
    
    
     96%|█████████████████████████████████████████████████████████████████████████   | 2043/2124 [7:45:47<08:25,  6.24s/it]
    
    
     96%|█████████████████████████████████████████████████████████████████████████▏  | 2044/2124 [7:45:48<06:32,  4.90s/it]
    
    
     96%|█████████████████████████████████████████████████████████████████████████▏  | 2045/2124 [7:45:49<04:42,  3.58s/it]
    
    
     96%|█████████████████████████████████████████████████████████████████████████▏  | 2046/2124 [7:45:51<03:56,  3.03s/it]
    
    
     96%|█████████████████████████████████████████████████████████████████████████▏  | 2047/2124 [7:46:02<07:14,  5.64s/it]
    
    
     96%|█████████████████████████████████████████████████████████████████████████▎  | 2048/2124 [7:46:17<10:35,  8.36s/it]
    
    
     96%|█████████████████████████████████████████████████████████████████████████▎  | 2049/2124 [7:46:24<09:48,  7.84s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▎  | 2050/2124 [7:46:27<07:51,  6.38s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▍  | 2051/2124 [7:46:28<05:55,  4.86s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▍  | 2052/2124 [7:46:30<04:40,  3.89s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▍  | 2053/2124 [7:46:31<03:44,  3.16s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▍  | 2054/2124 [7:46:35<04:04,  3.49s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▌  | 2055/2124 [7:46:41<04:39,  4.05s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▌  | 2056/2124 [7:46:48<05:50,  5.15s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▌  | 2057/2124 [7:46:52<05:22,  4.81s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▋  | 2058/2124 [7:46:53<03:52,  3.52s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▋  | 2059/2124 [7:47:10<08:20,  7.70s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▋  | 2061/2124 [7:47:16<06:33,  6.24s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▊  | 2062/2124 [7:47:17<04:49,  4.66s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▊  | 2063/2124 [7:47:19<03:48,  3.75s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▊  | 2064/2124 [7:47:23<04:02,  4.05s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▉  | 2065/2124 [7:47:26<03:38,  3.70s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▉  | 2066/2124 [7:47:30<03:42,  3.84s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▉  | 2067/2124 [7:47:33<03:22,  3.56s/it]
    
    
     97%|█████████████████████████████████████████████████████████████████████████▉  | 2068/2124 [7:47:39<03:47,  4.05s/it]
    
    
     97%|██████████████████████████████████████████████████████████████████████████  | 2069/2124 [7:47:44<04:12,  4.60s/it]
    
    
     97%|██████████████████████████████████████████████████████████████████████████  | 2070/2124 [7:47:46<03:19,  3.70s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████  | 2071/2124 [7:47:55<04:45,  5.39s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▏ | 2072/2124 [7:48:22<10:14, 11.82s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▏ | 2073/2124 [7:48:26<07:55,  9.33s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▏ | 2074/2124 [7:48:28<05:55,  7.11s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▏ | 2075/2124 [7:48:30<04:37,  5.67s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▎ | 2076/2124 [7:48:31<03:30,  4.39s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▎ | 2077/2124 [7:48:34<02:57,  3.77s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▎ | 2078/2124 [7:48:37<02:42,  3.54s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▍ | 2079/2124 [7:48:41<02:49,  3.77s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▍ | 2080/2124 [7:49:18<10:05, 13.77s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▍ | 2081/2124 [7:49:21<07:25, 10.37s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▍ | 2082/2124 [7:49:23<05:36,  8.02s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▌ | 2083/2124 [7:49:25<04:14,  6.21s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▌ | 2084/2124 [7:49:25<02:58,  4.47s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▌ | 2085/2124 [7:49:27<02:17,  3.53s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▋ | 2086/2124 [7:49:47<05:21,  8.46s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▋ | 2088/2124 [7:49:47<03:35,  5.97s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▋ | 2089/2124 [7:49:51<03:12,  5.49s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▊ | 2090/2124 [7:49:53<02:31,  4.45s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▊ | 2091/2124 [7:49:55<01:58,  3.59s/it]
    
    
     98%|██████████████████████████████████████████████████████████████████████████▊ | 2092/2124 [7:49:59<01:56,  3.64s/it]
    
    
     99%|██████████████████████████████████████████████████████████████████████████▉ | 2093/2124 [7:50:02<01:44,  3.38s/it]
    
    
     99%|██████████████████████████████████████████████████████████████████████████▉ | 2094/2124 [7:50:48<08:12, 16.43s/it]
    
    
     99%|██████████████████████████████████████████████████████████████████████████▉ | 2095/2124 [7:51:10<08:40, 17.94s/it]
    
    
     99%|██████████████████████████████████████████████████████████████████████████▉ | 2096/2124 [7:51:12<06:07, 13.11s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████ | 2097/2124 [7:51:38<07:42, 17.12s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████ | 2098/2124 [7:51:43<05:52, 13.55s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████ | 2099/2124 [7:53:20<16:03, 38.52s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▏| 2100/2124 [7:53:21<10:53, 27.23s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▏| 2101/2124 [7:53:41<09:36, 25.07s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▏| 2102/2124 [7:53:46<06:57, 18.96s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▏| 2103/2124 [7:53:47<04:43, 13.48s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▎| 2104/2124 [7:53:55<04:01, 12.09s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▎| 2105/2124 [7:54:00<03:05,  9.79s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▎| 2106/2124 [7:54:01<02:11,  7.30s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▍| 2107/2124 [7:54:06<01:49,  6.43s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▍| 2108/2124 [7:54:11<01:35,  5.95s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▍| 2109/2124 [7:54:16<01:28,  5.88s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▍| 2110/2124 [7:54:46<03:00, 12.90s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▌| 2111/2124 [7:54:58<02:45, 12.70s/it]
    
    
     99%|███████████████████████████████████████████████████████████████████████████▌| 2112/2124 [7:55:00<01:53,  9.43s/it]
    
    
    100%|███████████████████████████████████████████████████████████████████████████▋| 2114/2124 [7:55:02<01:10,  7.03s/it]
    
    
    100%|███████████████████████████████████████████████████████████████████████████▋| 2115/2124 [7:55:04<00:49,  5.46s/it]
    
    
    100%|███████████████████████████████████████████████████████████████████████████▋| 2116/2124 [7:55:08<00:39,  4.94s/it]
    
    
    100%|███████████████████████████████████████████████████████████████████████████▋| 2117/2124 [7:55:10<00:27,  3.92s/it]
    
    
    100%|███████████████████████████████████████████████████████████████████████████▊| 2118/2124 [7:55:11<00:18,  3.14s/it]
    
    
    100%|███████████████████████████████████████████████████████████████████████████▊| 2119/2124 [7:55:14<00:16,  3.26s/it]
    
    
    100%|███████████████████████████████████████████████████████████████████████████▊| 2120/2124 [7:55:19<00:14,  3.54s/it]
    
    
    100%|███████████████████████████████████████████████████████████████████████████▉| 2121/2124 [7:55:21<00:09,  3.14s/it]
    
    
    100%|███████████████████████████████████████████████████████████████████████████▉| 2122/2124 [7:55:25<00:06,  3.45s/it]
    
    
    100%|███████████████████████████████████████████████████████████████████████████▉| 2123/2124 [7:55:43<00:07,  7.73s/it]
    
    
    100%|████████████████████████████████████████████████████████████████████████████| 2124/2124 [7:55:43<00:00,  5.60s/it]
    ---------------------------------------------------------------------------
    NameError                                 Traceback (most recent call last)
    <ipython-input-34-0f05f62a8976> in <module>()
         22     mean_vec1 = mean_vec1.mean(axis=0)
         23     vecs1.append(mean_vec1)
    ---> 24 df['q1_feats_m'] = list(vecs1)
    
    NameError: name 'df' is not defined
    In [37]:
    train_df['q1_feats_m'] = list(vecs1)
    
    In [47]:
    df3_q1 = pd.DataFrame(train_df.q1_feats_m.values.tolist(), index= train_df.index)
    
    In [52]:
    if not os.path.isfile('FEATUREtfidfw2v.csv'):
        df3_q1['ID']=train_df['ID']
        result  = train_df.merge(df3_q1, on='ID',how='left')
        result.to_csv('FEATUREtfidfw2v.csv')
    
    In [61]:
    questions = list(test_df['TEXT'])
    tfidf = TfidfVectorizer(lowercase=False, )
    x=tfidf.fit_transform(questions)
    
    # dict key:word and value:tf-idf score
    
    word2tfidf = dict(zip(tfidf.get_feature_names(), tfidf.idf_))
    
    In [62]:
    import en_core_web_sm
    # en_vectors_web_lg, which includes over 1 million unique vectors.
    nlp = en_core_web_sm.load()
    
    vecs1 = []
    # https://github.com/noamraph/tqdm
    # tqdm is used to print the progress bar
    for qu1 in tqdm(list(test_df['TEXT'])):
        doc1 = nlp(qu1) 
        #  is the number of dimensions of vectors 
        mean_vec1 = np.zeros([len(doc1),96 ])
        for word1 in doc1:
            # word2vec
            vec1 = word1.vector
            # fetch df score
            try:
                idf = word2tfidf[str(word1)]
            except:
                idf = 0
            # compute final vec
            mean_vec1 += vec1 * idf
        mean_vec1 = mean_vec1.mean(axis=0)
        vecs1.append(mean_vec1)
    test_df['q1_feats_m'] = list(vecs1)
    
    
    
      0%|                                                                                          | 0/665 [00:00<?, ?it/s]
    
    
      0%|                                                                                  | 1/665 [00:02<32:31,  2.94s/it]
    
    
      0%|▏                                                                                 | 2/665 [00:03<24:54,  2.25s/it]
    
    
      0%|▎                                                                                 | 3/665 [00:04<19:15,  1.75s/it]
    
    
      1%|▍                                                                               | 4/665 [01:10<3:52:34, 21.11s/it]
    
    
      1%|▌                                                                               | 5/665 [01:21<3:17:46, 17.98s/it]
    
    
      1%|▋                                                                               | 6/665 [01:24<2:29:59, 13.66s/it]
    
    
      1%|▊                                                                               | 7/665 [01:33<2:13:42, 12.19s/it]
    
    
      1%|▉                                                                               | 8/665 [01:40<1:57:10, 10.70s/it]
    
    
      1%|█                                                                               | 9/665 [01:42<1:29:15,  8.16s/it]
    
    
      2%|█▏                                                                             | 10/665 [01:45<1:10:28,  6.46s/it]
    
    
      2%|█▎                                                                             | 11/665 [03:10<5:27:49, 30.08s/it]
    
    
      2%|█▍                                                                             | 12/665 [03:18<4:14:04, 23.35s/it]
    
    
      2%|█▌                                                                             | 13/665 [03:30<3:37:02, 19.97s/it]
    
    
      2%|█▋                                                                             | 14/665 [03:31<2:36:12, 14.40s/it]
    
    
      2%|█▊                                                                             | 15/665 [03:40<2:17:26, 12.69s/it]
    
    
      2%|█▉                                                                             | 16/665 [03:42<1:41:19,  9.37s/it]
    
    
      3%|██                                                                             | 17/665 [03:43<1:15:58,  7.03s/it]
    
    
      3%|██▏                                                                              | 18/665 [03:44<55:05,  5.11s/it]
    
    
      3%|██▎                                                                            | 19/665 [03:57<1:22:29,  7.66s/it]
    
    
      3%|██▍                                                                              | 20/665 [03:58<59:29,  5.53s/it]
    
    
      3%|██▌                                                                              | 21/665 [04:03<59:09,  5.51s/it]
    
    
      3%|██▋                                                                              | 22/665 [04:05<45:45,  4.27s/it]
    
    
      3%|██▊                                                                              | 23/665 [04:13<57:50,  5.41s/it]
    
    
      4%|██▊                                                                            | 24/665 [04:47<2:31:24, 14.17s/it]
    
    
      4%|██▉                                                                            | 25/665 [04:53<2:04:01, 11.63s/it]
    
    
      4%|███                                                                            | 26/665 [04:56<1:36:02,  9.02s/it]
    
    
      4%|███▏                                                                           | 27/665 [05:13<1:59:32, 11.24s/it]
    
    
      4%|███▎                                                                           | 28/665 [05:17<1:36:46,  9.11s/it]
    
    
      4%|███▍                                                                           | 29/665 [05:19<1:15:40,  7.14s/it]
    
    
      5%|███▋                                                                             | 30/665 [05:21<58:18,  5.51s/it]
    
    
      5%|███▊                                                                             | 31/665 [05:23<46:02,  4.36s/it]
    
    
      5%|███▉                                                                             | 32/665 [05:23<32:45,  3.10s/it]
    
    
      5%|████                                                                             | 33/665 [05:25<28:32,  2.71s/it]
    
    
      5%|████▏                                                                            | 34/665 [05:26<24:57,  2.37s/it]
    
    
      5%|████▏                                                                          | 35/665 [05:40<1:00:16,  5.74s/it]
    
    
      5%|████▍                                                                            | 36/665 [05:41<45:49,  4.37s/it]
    
    
      6%|████▌                                                                            | 37/665 [05:46<47:39,  4.55s/it]
    
    
      6%|████▋                                                                            | 38/665 [05:49<44:05,  4.22s/it]
    
    
      6%|████▊                                                                            | 39/665 [05:51<35:07,  3.37s/it]
    
    
      6%|████▊                                                                          | 40/665 [06:23<2:04:15, 11.93s/it]
    
    
      6%|████▊                                                                          | 41/665 [07:12<3:59:45, 23.05s/it]
    
    
      6%|████▉                                                                          | 42/665 [07:13<2:51:01, 16.47s/it]
    
    
      6%|█████                                                                          | 43/665 [07:15<2:07:30, 12.30s/it]
    
    
      7%|█████▏                                                                         | 44/665 [07:34<2:28:18, 14.33s/it]
    
    
      7%|█████▎                                                                         | 45/665 [07:39<1:58:27, 11.46s/it]
    
    
      7%|█████▍                                                                         | 46/665 [07:42<1:32:16,  8.94s/it]
    
    
      7%|█████▌                                                                         | 47/665 [07:44<1:08:43,  6.67s/it]
    
    
      7%|█████▋                                                                         | 48/665 [07:49<1:04:03,  6.23s/it]
    
    
      7%|█████▊                                                                         | 49/665 [07:54<1:00:17,  5.87s/it]
    
    
      8%|█████▉                                                                         | 50/665 [08:00<1:02:11,  6.07s/it]
    
    
      8%|██████▏                                                                          | 51/665 [08:05<56:51,  5.56s/it]
    
    
      8%|██████▎                                                                          | 52/665 [08:06<42:28,  4.16s/it]
    
    
      8%|██████▎                                                                        | 53/665 [08:40<2:15:53, 13.32s/it]
    
    
      8%|██████▍                                                                        | 54/665 [08:42<1:38:57,  9.72s/it]
    
    
      8%|██████▌                                                                        | 55/665 [08:48<1:28:02,  8.66s/it]
    
    
      8%|██████▋                                                                        | 56/665 [09:01<1:41:45, 10.03s/it]
    
    
      9%|██████▊                                                                        | 57/665 [09:17<1:58:29, 11.69s/it]
    
    
      9%|██████▉                                                                        | 58/665 [09:23<1:41:22, 10.02s/it]
    
    
      9%|███████                                                                        | 59/665 [09:54<2:45:11, 16.36s/it]
    
    
      9%|███████▏                                                                       | 60/665 [10:49<4:40:59, 27.87s/it]
    
    
      9%|███████▏                                                                       | 61/665 [10:50<3:21:21, 20.00s/it]
    
    
      9%|███████▎                                                                       | 62/665 [10:51<2:24:10, 14.35s/it]
    
    
      9%|███████▍                                                                       | 63/665 [10:54<1:49:18, 10.90s/it]
    
    
     10%|███████▌                                                                       | 64/665 [10:55<1:19:47,  7.97s/it]
    
    
     10%|███████▉                                                                         | 65/665 [10:56<57:37,  5.76s/it]
    
    
     10%|████████                                                                         | 66/665 [10:56<41:31,  4.16s/it]
    
    
     10%|████████▏                                                                        | 67/665 [10:57<31:07,  3.12s/it]
    
    
     10%|████████▎                                                                        | 68/665 [11:04<41:20,  4.16s/it]
    
    
     10%|████████▍                                                                        | 69/665 [11:04<29:58,  3.02s/it]
    
    
     11%|████████▌                                                                        | 70/665 [11:14<50:19,  5.08s/it]
    
    
     11%|████████▋                                                                        | 71/665 [11:21<57:42,  5.83s/it]
    
    
     11%|████████▌                                                                      | 72/665 [11:29<1:02:46,  6.35s/it]
    
    
     11%|████████▉                                                                        | 73/665 [11:34<57:31,  5.83s/it]
    
    
     11%|█████████                                                                        | 74/665 [11:36<48:12,  4.89s/it]
    
    
     11%|████████▉                                                                      | 75/665 [11:51<1:17:19,  7.86s/it]
    
    
     11%|█████████                                                                      | 76/665 [11:56<1:07:26,  6.87s/it]
    
    
     12%|█████████▍                                                                       | 77/665 [11:58<54:01,  5.51s/it]
    
    
     12%|█████████▌                                                                       | 78/665 [12:00<43:30,  4.45s/it]
    
    
     12%|█████████▌                                                                       | 79/665 [12:02<35:22,  3.62s/it]
    
    
     12%|█████████▋                                                                       | 80/665 [12:02<25:29,  2.61s/it]
    
    
     12%|█████████▊                                                                       | 81/665 [12:04<22:30,  2.31s/it]
    
    
     12%|█████████▉                                                                       | 82/665 [12:05<20:28,  2.11s/it]
    
    
     12%|██████████                                                                       | 83/665 [12:10<27:05,  2.79s/it]
    
    
     13%|█████████▉                                                                     | 84/665 [12:43<1:57:13, 12.11s/it]
    
    
     13%|██████████                                                                     | 85/665 [12:44<1:24:26,  8.74s/it]
    
    
     13%|██████████                                                                    | 86/665 [17:05<13:33:42, 84.32s/it]
    
    
     13%|██████████▎                                                                    | 87/665 [17:08<9:36:09, 59.81s/it]
    
    
     13%|██████████▍                                                                    | 88/665 [17:09<6:46:49, 42.30s/it]
    
    
     13%|██████████▌                                                                    | 89/665 [18:05<7:26:28, 46.51s/it]
    
    
     14%|██████████▋                                                                    | 90/665 [18:22<6:00:59, 37.67s/it]
    
    
     14%|██████████▊                                                                    | 91/665 [18:27<4:24:02, 27.60s/it]
    
    
     14%|██████████▉                                                                    | 92/665 [18:44<3:54:41, 24.57s/it]
    
    
     14%|███████████                                                                    | 93/665 [18:48<2:56:00, 18.46s/it]
    
    
     14%|███████████▏                                                                   | 94/665 [19:03<2:45:47, 17.42s/it]
    
    
     14%|███████████▎                                                                   | 95/665 [19:07<2:05:25, 13.20s/it]
    
    
     14%|███████████▍                                                                   | 96/665 [19:09<1:33:05,  9.82s/it]
    
    
     15%|███████████▌                                                                   | 97/665 [19:10<1:08:31,  7.24s/it]
    
    
     15%|███████████▉                                                                     | 98/665 [19:12<53:16,  5.64s/it]
    
    
     15%|████████████                                                                     | 99/665 [19:14<42:34,  4.51s/it]
    
    
     15%|████████████                                                                    | 100/665 [19:18<42:17,  4.49s/it]
    
    
     15%|████████████▏                                                                   | 101/665 [19:21<38:22,  4.08s/it]
    
    
     15%|████████████▎                                                                   | 102/665 [19:25<39:01,  4.16s/it]
    
    
     15%|████████████▍                                                                   | 103/665 [19:26<30:00,  3.20s/it]
    
    
     16%|████████████▌                                                                   | 104/665 [19:28<25:43,  2.75s/it]
    
    
     16%|████████████▋                                                                   | 105/665 [19:29<20:57,  2.25s/it]
    
    
     16%|████████████▊                                                                   | 106/665 [19:31<19:05,  2.05s/it]
    
    
     16%|████████████▊                                                                   | 107/665 [19:36<27:49,  2.99s/it]
    
    
     16%|████████████▉                                                                   | 108/665 [19:37<21:47,  2.35s/it]
    
    
     16%|█████████████                                                                   | 109/665 [19:38<17:37,  1.90s/it]
    
    
     17%|█████████████▏                                                                  | 110/665 [19:41<20:15,  2.19s/it]
    
    
     17%|█████████████                                                                 | 111/665 [20:26<2:20:46, 15.25s/it]
    
    
     17%|█████████████▏                                                                | 112/665 [20:27<1:41:39, 11.03s/it]
    
    
     17%|█████████████▎                                                                | 113/665 [20:30<1:17:49,  8.46s/it]
    
    
     17%|█████████████▎                                                                | 114/665 [20:32<1:00:11,  6.55s/it]
    
    
     17%|█████████████▊                                                                  | 115/665 [20:33<44:07,  4.81s/it]
    
    
     17%|█████████████▉                                                                  | 116/665 [20:43<58:53,  6.44s/it]
    
    
     18%|█████████████▋                                                                | 117/665 [20:50<1:01:22,  6.72s/it]
    
    
     18%|██████████████▏                                                                 | 118/665 [20:52<47:49,  5.25s/it]
    
    
     18%|██████████████▎                                                                 | 119/665 [20:57<47:23,  5.21s/it]
    
    
     18%|██████████████▍                                                                 | 120/665 [20:58<34:10,  3.76s/it]
    
    
     18%|██████████████▏                                                               | 121/665 [21:16<1:15:02,  8.28s/it]
    
    
     18%|██████████████▋                                                                 | 122/665 [21:19<58:33,  6.47s/it]
    
    
     18%|██████████████▊                                                                 | 123/665 [21:20<44:26,  4.92s/it]
    
    
     19%|██████████████▌                                                               | 124/665 [23:31<6:24:40, 42.66s/it]
    
    
     19%|██████████████▋                                                               | 125/665 [23:32<4:32:13, 30.25s/it]
    
    
     19%|██████████████▊                                                               | 126/665 [23:34<3:15:37, 21.78s/it]
    
    
     19%|██████████████▉                                                               | 127/665 [23:35<2:19:18, 15.54s/it]
    
    
     19%|███████████████                                                               | 128/665 [23:37<1:41:46, 11.37s/it]
    
    
     19%|███████████████▏                                                              | 129/665 [23:46<1:35:35, 10.70s/it]
    
    
     20%|███████████████▏                                                              | 130/665 [24:12<2:17:13, 15.39s/it]
    
    
     20%|███████████████▎                                                              | 131/665 [24:13<1:37:43, 10.98s/it]
    
    
     20%|███████████████▍                                                              | 132/665 [24:14<1:11:48,  8.08s/it]
    
    
     20%|████████████████                                                                | 133/665 [24:16<54:05,  6.10s/it]
    
    
     20%|████████████████                                                                | 134/665 [24:19<45:40,  5.16s/it]
    
    
     20%|████████████████▏                                                               | 135/665 [24:20<36:16,  4.11s/it]
    
    
     20%|████████████████▎                                                               | 136/665 [24:23<33:04,  3.75s/it]
    
    
     21%|████████████████▍                                                               | 137/665 [24:26<30:20,  3.45s/it]
    
    
     21%|████████████████▋                                                               | 139/665 [24:27<22:45,  2.60s/it]
    
    
     21%|████████████████▊                                                               | 140/665 [24:34<34:47,  3.98s/it]
    
    
     21%|████████████████▉                                                               | 141/665 [24:35<26:49,  3.07s/it]
    
    
     21%|█████████████████                                                               | 142/665 [24:37<23:24,  2.69s/it]
    
    
     22%|█████████████████▏                                                              | 143/665 [24:38<19:36,  2.25s/it]
    
    
     22%|█████████████████▎                                                              | 144/665 [24:41<21:25,  2.47s/it]
    
    
     22%|█████████████████▍                                                              | 145/665 [24:46<27:47,  3.21s/it]
    
    
     22%|█████████████████▌                                                              | 146/665 [24:47<22:35,  2.61s/it]
    
    
     22%|█████████████████▋                                                              | 147/665 [24:49<19:28,  2.26s/it]
    
    
     22%|█████████████████▊                                                              | 148/665 [25:03<50:56,  5.91s/it]
    
    
     22%|█████████████████▉                                                              | 149/665 [25:05<40:19,  4.69s/it]
    
    
     23%|██████████████████                                                              | 150/665 [25:08<35:23,  4.12s/it]
    
    
     23%|██████████████████▏                                                             | 151/665 [25:11<32:01,  3.74s/it]
    
    
     23%|█████████████████▊                                                            | 152/665 [25:56<2:19:34, 16.33s/it]
    
    
     23%|█████████████████▉                                                            | 153/665 [25:58<1:41:37, 11.91s/it]
    
    
     23%|██████████████████                                                            | 154/665 [26:02<1:21:44,  9.60s/it]
    
    
     23%|██████████████████▏                                                           | 155/665 [26:05<1:04:05,  7.54s/it]
    
    
     23%|██████████████████▎                                                           | 156/665 [26:42<2:18:22, 16.31s/it]
    
    
     24%|██████████████████▍                                                           | 157/665 [26:45<1:44:01, 12.29s/it]
    
    
     24%|██████████████████▌                                                           | 158/665 [26:51<1:29:32, 10.60s/it]
    
    
     24%|██████████████████▋                                                           | 159/665 [27:16<2:05:01, 14.82s/it]
    
    
     24%|██████████████████▊                                                           | 160/665 [27:17<1:28:55, 10.57s/it]
    
    
     24%|██████████████████▉                                                           | 161/665 [27:20<1:11:07,  8.47s/it]
    
    
     24%|███████████████████▍                                                            | 162/665 [27:21<51:45,  6.17s/it]
    
    
     25%|███████████████████▌                                                            | 163/665 [27:24<44:16,  5.29s/it]
    
    
     25%|███████████████████▏                                                          | 164/665 [27:41<1:11:30,  8.56s/it]
    
    
     25%|███████████████████▎                                                          | 165/665 [28:04<1:48:41, 13.04s/it]
    
    
     25%|███████████████████▍                                                          | 166/665 [28:37<2:37:51, 18.98s/it]
    
    
     25%|███████████████████▌                                                          | 167/665 [28:38<1:53:27, 13.67s/it]
    
    
     25%|███████████████████▋                                                          | 168/665 [28:39<1:20:51,  9.76s/it]
    
    
     25%|████████████████████▎                                                           | 169/665 [28:40<58:35,  7.09s/it]
    
    
     26%|███████████████████▉                                                          | 170/665 [29:03<1:37:52, 11.86s/it]
    
    
     26%|████████████████████                                                          | 171/665 [29:22<1:55:16, 14.00s/it]
    
    
     26%|████████████████████▏                                                         | 172/665 [29:23<1:24:56, 10.34s/it]
    
    
     26%|████████████████████▎                                                         | 173/665 [29:25<1:03:44,  7.77s/it]
    
    
     26%|████████████████████▍                                                         | 174/665 [29:41<1:23:15, 10.17s/it]
    
    
     26%|█████████████████████                                                           | 175/665 [29:42<59:45,  7.32s/it]
    
    
     26%|█████████████████████▏                                                          | 176/665 [29:43<46:02,  5.65s/it]
    
    
     27%|█████████████████████▎                                                          | 177/665 [29:50<48:17,  5.94s/it]
    
    
     27%|█████████████████████▍                                                          | 178/665 [29:50<34:37,  4.27s/it]
    
    
     27%|█████████████████████▌                                                          | 179/665 [30:05<59:26,  7.34s/it]
    
    
     27%|█████████████████████                                                         | 180/665 [30:21<1:20:50, 10.00s/it]
    
    
     27%|█████████████████████▏                                                        | 181/665 [30:23<1:00:30,  7.50s/it]
    
    
     27%|█████████████████████▎                                                        | 182/665 [31:58<4:31:22, 33.71s/it]
    
    
     28%|█████████████████████▍                                                        | 183/665 [31:59<3:13:30, 24.09s/it]
    
    
     28%|█████████████████████▌                                                        | 184/665 [32:05<2:28:03, 18.47s/it]
    
    
     28%|█████████████████████▋                                                        | 185/665 [32:44<3:17:40, 24.71s/it]
    
    
     28%|█████████████████████▊                                                        | 186/665 [32:45<2:20:12, 17.56s/it]
    
    
     28%|█████████████████████▉                                                        | 187/665 [33:46<4:03:59, 30.63s/it]
    
    
     28%|██████████████████████                                                        | 188/665 [33:49<2:57:02, 22.27s/it]
    
    
     28%|██████████████████████▏                                                       | 189/665 [33:51<2:08:10, 16.16s/it]
    
    
     29%|██████████████████████▎                                                       | 190/665 [33:53<1:36:22, 12.17s/it]
    
    
     29%|██████████████████████▍                                                       | 191/665 [33:55<1:10:24,  8.91s/it]
    
    
     29%|███████████████████████                                                         | 192/665 [33:56<52:53,  6.71s/it]
    
    
     29%|██████████████████████▋                                                       | 193/665 [36:16<6:07:47, 46.75s/it]
    
    
     29%|██████████████████████▊                                                       | 194/665 [36:17<4:18:37, 32.94s/it]
    
    
     29%|██████████████████████▊                                                       | 195/665 [36:20<3:06:07, 23.76s/it]
    
    
     29%|██████████████████████▉                                                       | 196/665 [36:20<2:11:00, 16.76s/it]
    
    
     30%|███████████████████████                                                       | 197/665 [36:38<2:14:11, 17.20s/it]
    
    
     30%|███████████████████████▏                                                      | 198/665 [36:40<1:37:28, 12.52s/it]
    
    
     30%|███████████████████████▎                                                      | 199/665 [36:41<1:11:35,  9.22s/it]
    
    
     30%|████████████████████████                                                        | 200/665 [36:44<56:10,  7.25s/it]
    
    
     30%|███████████████████████▌                                                      | 201/665 [37:12<1:43:50, 13.43s/it]
    
    
     30%|███████████████████████▋                                                      | 202/665 [37:13<1:15:56,  9.84s/it]
    
    
     31%|████████████████████████▍                                                       | 203/665 [37:14<55:17,  7.18s/it]
    
    
     31%|████████████████████████▌                                                       | 204/665 [37:16<42:51,  5.58s/it]
    
    
     31%|████████████████████████                                                      | 205/665 [37:30<1:02:39,  8.17s/it]
    
    
     31%|████████████████████████▊                                                       | 206/665 [37:37<59:25,  7.77s/it]
    
    
     31%|████████████████████████▉                                                       | 207/665 [37:38<43:53,  5.75s/it]
    
    
     31%|█████████████████████████                                                       | 208/665 [37:41<35:59,  4.73s/it]
    
    
     31%|█████████████████████████▏                                                      | 209/665 [37:41<27:03,  3.56s/it]
    
    
     32%|█████████████████████████▎                                                      | 210/665 [37:48<34:23,  4.54s/it]
    
    
     32%|█████████████████████████▍                                                      | 211/665 [37:49<26:08,  3.45s/it]
    
    
     32%|████████████████████████▊                                                     | 212/665 [39:16<3:35:59, 28.61s/it]
    
    
     32%|████████████████████████▉                                                     | 213/665 [39:18<2:33:32, 20.38s/it]
    
    
     32%|█████████████████████████                                                     | 214/665 [39:22<1:56:59, 15.56s/it]
    
    
     32%|█████████████████████████▏                                                    | 215/665 [39:23<1:23:43, 11.16s/it]
    
    
     32%|█████████████████████████▎                                                    | 216/665 [40:25<3:18:16, 26.50s/it]
    
    
     33%|█████████████████████████▍                                                    | 217/665 [40:27<2:22:39, 19.11s/it]
    
    
     33%|█████████████████████████▌                                                    | 218/665 [40:28<1:41:00, 13.56s/it]
    
    
     33%|█████████████████████████▋                                                    | 219/665 [41:11<2:48:14, 22.63s/it]
    
    
     33%|█████████████████████████▊                                                    | 220/665 [41:12<1:59:21, 16.09s/it]
    
    
     33%|█████████████████████████▉                                                    | 221/665 [42:46<4:52:24, 39.51s/it]
    
    
     33%|██████████████████████████                                                    | 222/665 [43:13<4:22:51, 35.60s/it]
    
    
     34%|██████████████████████████▏                                                   | 223/665 [43:32<3:45:38, 30.63s/it]
    
    
     34%|██████████████████████████▎                                                   | 224/665 [43:36<2:45:40, 22.54s/it]
    
    
     34%|██████████████████████████▍                                                   | 225/665 [43:38<2:00:22, 16.41s/it]
    
    
     34%|██████████████████████████▌                                                   | 226/665 [43:42<1:33:15, 12.75s/it]
    
    
     34%|██████████████████████████▋                                                   | 227/665 [43:45<1:12:44,  9.97s/it]
    
    
     34%|███████████████████████████▍                                                    | 228/665 [43:48<56:35,  7.77s/it]
    
    
     34%|███████████████████████████▌                                                    | 229/665 [43:50<43:17,  5.96s/it]
    
    
     35%|███████████████████████████▋                                                    | 230/665 [43:52<34:58,  4.82s/it]
    
    
     35%|███████████████████████████▊                                                    | 231/665 [43:54<28:56,  4.00s/it]
    
    
     35%|███████████████████████████▉                                                    | 232/665 [43:56<25:13,  3.50s/it]
    
    
     35%|███████████████████████████▎                                                  | 233/665 [44:18<1:04:14,  8.92s/it]
    
    
     35%|████████████████████████████▏                                                   | 234/665 [44:19<48:24,  6.74s/it]
    
    
     35%|████████████████████████████▎                                                   | 235/665 [44:22<39:46,  5.55s/it]
    
    
     35%|████████████████████████████▍                                                   | 236/665 [44:23<29:05,  4.07s/it]
    
    
     36%|████████████████████████████▌                                                   | 237/665 [44:25<23:48,  3.34s/it]
    
    
     36%|███████████████████████████▉                                                  | 238/665 [45:02<1:36:52, 13.61s/it]
    
    
     36%|████████████████████████████                                                  | 239/665 [45:05<1:14:17, 10.46s/it]
    
    
     36%|████████████████████████████▊                                                   | 240/665 [45:09<58:54,  8.32s/it]
    
    
     36%|████████████████████████████▉                                                   | 241/665 [45:11<46:16,  6.55s/it]
    
    
     36%|████████████████████████████▍                                                 | 242/665 [45:30<1:12:22, 10.27s/it]
    
    
     37%|████████████████████████████▌                                                 | 243/665 [45:40<1:12:20, 10.28s/it]
    
    
     37%|████████████████████████████▌                                                 | 244/665 [46:04<1:39:51, 14.23s/it]
    
    
     37%|████████████████████████████▋                                                 | 245/665 [46:06<1:14:47, 10.68s/it]
    
    
     37%|████████████████████████████▊                                                 | 246/665 [47:25<3:37:24, 31.13s/it]
    
    
     37%|████████████████████████████▉                                                 | 247/665 [47:30<2:43:13, 23.43s/it]
    
    
     37%|█████████████████████████████                                                 | 248/665 [48:34<4:05:52, 35.38s/it]
    
    
     37%|█████████████████████████████▏                                                | 249/665 [48:35<2:54:31, 25.17s/it]
    
    
     38%|█████████████████████████████▎                                                | 250/665 [48:36<2:03:25, 17.85s/it]
    
    
     38%|█████████████████████████████▍                                                | 251/665 [48:55<2:06:41, 18.36s/it]
    
    
     38%|█████████████████████████████▌                                                | 252/665 [48:57<1:32:12, 13.40s/it]
    
    
     38%|█████████████████████████████▋                                                | 253/665 [48:59<1:08:22,  9.96s/it]
    
    
     38%|██████████████████████████████▌                                                 | 254/665 [49:01<52:05,  7.60s/it]
    
    
     38%|██████████████████████████████▋                                                 | 255/665 [49:05<44:24,  6.50s/it]
    
    
     38%|██████████████████████████████▊                                                 | 256/665 [49:09<40:01,  5.87s/it]
    
    
     39%|██████████████████████████████▉                                                 | 257/665 [49:11<31:08,  4.58s/it]
    
    
     39%|███████████████████████████████                                                 | 258/665 [49:12<24:11,  3.57s/it]
    
    
     39%|███████████████████████████████▏                                                | 259/665 [49:13<19:10,  2.83s/it]
    
    
     39%|██████████████████████████████▍                                               | 260/665 [50:24<2:36:04, 23.12s/it]
    
    
     39%|██████████████████████████████▌                                               | 261/665 [50:25<1:52:06, 16.65s/it]
    
    
     39%|██████████████████████████████▋                                               | 262/665 [50:26<1:19:11, 11.79s/it]
    
    
     40%|██████████████████████████████▊                                               | 263/665 [50:31<1:05:34,  9.79s/it]
    
    
     40%|███████████████████████████████▊                                                | 264/665 [50:32<48:17,  7.23s/it]
    
    
     40%|███████████████████████████████▉                                                | 265/665 [50:33<35:20,  5.30s/it]
    
    
     40%|████████████████████████████████                                                | 266/665 [50:42<43:06,  6.48s/it]
    
    
     40%|███████████████████████████████▎                                              | 267/665 [53:40<6:23:30, 57.82s/it]
    
    
     40%|███████████████████████████████▍                                              | 268/665 [53:42<4:31:35, 41.05s/it]
    
    
     40%|███████████████████████████████▌                                              | 269/665 [53:46<3:17:39, 29.95s/it]
    
    
     41%|███████████████████████████████▋                                              | 270/665 [53:49<2:24:16, 21.91s/it]
    
    
     41%|███████████████████████████████▊                                              | 271/665 [53:52<1:46:16, 16.18s/it]
    
    
     41%|███████████████████████████████▉                                              | 272/665 [53:53<1:15:59, 11.60s/it]
    
    
     41%|████████████████████████████████                                              | 273/665 [54:05<1:18:06, 11.96s/it]
    
    
     41%|████████████████████████████████▏                                             | 274/665 [54:19<1:21:06, 12.45s/it]
    
    
     41%|████████████████████████████████▎                                             | 275/665 [54:26<1:10:48, 10.89s/it]
    
    
     42%|█████████████████████████████████▏                                              | 276/665 [54:27<50:28,  7.78s/it]
    
    
     42%|█████████████████████████████████▎                                              | 277/665 [54:29<38:34,  5.96s/it]
    
    
     42%|████████████████████████████████▌                                             | 278/665 [54:59<1:25:44, 13.29s/it]
    
    
     42%|████████████████████████████████▋                                             | 279/665 [55:14<1:29:21, 13.89s/it]
    
    
     42%|████████████████████████████████▊                                             | 280/665 [55:36<1:44:47, 16.33s/it]
    
    
     42%|████████████████████████████████▉                                             | 281/665 [55:37<1:14:07, 11.58s/it]
    
    
     42%|█████████████████████████████████                                             | 282/665 [55:51<1:19:49, 12.51s/it]
    
    
     43%|█████████████████████████████████▏                                            | 283/665 [56:11<1:33:13, 14.64s/it]
    
    
     43%|█████████████████████████████████▎                                            | 284/665 [56:17<1:16:46, 12.09s/it]
    
    
     43%|██████████████████████████████████▎                                             | 285/665 [56:18<54:29,  8.60s/it]
    
    
     43%|█████████████████████████████████▌                                            | 286/665 [56:37<1:13:45, 11.68s/it]
    
    
     43%|██████████████████████████████████▌                                             | 287/665 [56:38<53:40,  8.52s/it]
    
    
     43%|██████████████████████████████████▋                                             | 288/665 [56:39<39:19,  6.26s/it]
    
    
     43%|██████████████████████████████████▊                                             | 289/665 [56:41<32:41,  5.22s/it]
    
    
     44%|██████████████████████████████████▉                                             | 290/665 [56:43<25:32,  4.09s/it]
    
    
     44%|███████████████████████████████████                                             | 291/665 [56:47<24:57,  4.00s/it]
    
    
     44%|███████████████████████████████████▏                                            | 292/665 [56:49<21:06,  3.39s/it]
    
    
     44%|███████████████████████████████████▏                                            | 293/665 [56:52<21:05,  3.40s/it]
    
    
     44%|███████████████████████████████████▎                                            | 294/665 [56:53<16:43,  2.71s/it]
    
    
     44%|███████████████████████████████████▍                                            | 295/665 [56:57<19:09,  3.11s/it]
    
    
     45%|███████████████████████████████████▌                                            | 296/665 [56:59<16:24,  2.67s/it]
    
    
     45%|███████████████████████████████████▋                                            | 297/665 [57:01<14:49,  2.42s/it]
    
    
     45%|███████████████████████████████████▊                                            | 298/665 [57:01<11:01,  1.80s/it]
    
    
     45%|███████████████████████████████████▉                                            | 299/665 [57:02<09:35,  1.57s/it]
    
    
     45%|████████████████████████████████████                                            | 300/665 [57:03<08:41,  1.43s/it]
    
    
     45%|████████████████████████████████████▏                                           | 301/665 [57:09<16:55,  2.79s/it]
    
    
     45%|████████████████████████████████████▎                                           | 302/665 [57:12<16:26,  2.72s/it]
    
    
     46%|████████████████████████████████████▍                                           | 303/665 [57:12<12:22,  2.05s/it]
    
    
     46%|████████████████████████████████████▌                                           | 304/665 [57:15<14:03,  2.34s/it]
    
    
     46%|████████████████████████████████████▋                                           | 305/665 [57:16<11:16,  1.88s/it]
    
    
     46%|███████████████████████████████████▉                                          | 306/665 [58:13<1:50:25, 18.46s/it]
    
    
     46%|████████████████████████████████████                                          | 307/665 [58:21<1:30:22, 15.15s/it]
    
    
     46%|████████████████████████████████████▏                                         | 308/665 [58:28<1:16:46, 12.90s/it]
    
    
     46%|████████████████████████████████████▏                                         | 309/665 [58:47<1:26:49, 14.63s/it]
    
    
     47%|████████████████████████████████████▎                                         | 310/665 [58:59<1:21:28, 13.77s/it]
    
    
     47%|████████████████████████████████████▍                                         | 311/665 [59:18<1:31:54, 15.58s/it]
    
    
     47%|████████████████████████████████████▌                                         | 312/665 [59:22<1:11:07, 12.09s/it]
    
    
     47%|█████████████████████████████████████▋                                          | 313/665 [59:25<54:34,  9.30s/it]
    
    
     47%|█████████████████████████████████████▊                                          | 314/665 [59:27<42:04,  7.19s/it]
    
    
     47%|████████████████████████████████████▉                                         | 315/665 [59:50<1:08:33, 11.75s/it]
    
    
     48%|████████████████████████████████████                                        | 316/665 [1:00:33<2:03:47, 21.28s/it]
    
    
     48%|████████████████████████████████████▏                                       | 317/665 [1:00:44<1:44:06, 17.95s/it]
    
    
     48%|████████████████████████████████████▎                                       | 318/665 [1:00:46<1:17:23, 13.38s/it]
    
    
     48%|████████████████████████████████████▍                                       | 319/665 [1:00:53<1:05:25, 11.35s/it]
    
    
     48%|████████████████████████████████████▌                                       | 320/665 [1:01:50<2:24:55, 25.20s/it]
    
    
     48%|████████████████████████████████████▋                                       | 321/665 [1:01:52<1:44:00, 18.14s/it]
    
    
     48%|████████████████████████████████████▊                                       | 322/665 [1:01:57<1:21:40, 14.29s/it]
    
    
     49%|████████████████████████████████████▉                                       | 323/665 [1:03:00<2:44:06, 28.79s/it]
    
    
     49%|█████████████████████████████████████                                       | 324/665 [1:03:04<2:01:37, 21.40s/it]
    
    
     49%|█████████████████████████████████████▏                                      | 325/665 [1:03:11<1:36:04, 16.95s/it]
    
    
     49%|█████████████████████████████████████▎                                      | 326/665 [1:03:13<1:10:29, 12.48s/it]
    
    
     49%|██████████████████████████████████████▎                                       | 327/665 [1:03:14<51:23,  9.12s/it]
    
    
     49%|██████████████████████████████████████▍                                       | 328/665 [1:03:18<41:44,  7.43s/it]
    
    
     49%|██████████████████████████████████████▌                                       | 329/665 [1:03:19<31:24,  5.61s/it]
    
    
     50%|██████████████████████████████████████▋                                       | 330/665 [1:03:40<56:25, 10.11s/it]
    
    
     50%|██████████████████████████████████████▊                                       | 331/665 [1:03:42<44:00,  7.90s/it]
    
    
     50%|██████████████████████████████████████▉                                       | 332/665 [1:03:47<37:45,  6.80s/it]
    
    
     50%|███████████████████████████████████████                                       | 333/665 [1:03:50<32:56,  5.95s/it]
    
    
     50%|███████████████████████████████████████▏                                      | 334/665 [1:03:53<26:45,  4.85s/it]
    
    
     50%|██████████████████████████████████████▎                                     | 335/665 [1:04:38<1:32:40, 16.85s/it]
    
    
     51%|██████████████████████████████████████▍                                     | 336/665 [1:04:39<1:07:13, 12.26s/it]
    
    
     51%|███████████████████████████████████████▌                                      | 337/665 [1:04:41<49:37,  9.08s/it]
    
    
     51%|███████████████████████████████████████▋                                      | 338/665 [1:04:43<39:00,  7.16s/it]
    
    
     51%|███████████████████████████████████████▊                                      | 339/665 [1:04:45<30:04,  5.53s/it]
    
    
     51%|███████████████████████████████████████▉                                      | 340/665 [1:05:03<49:13,  9.09s/it]
    
    
     51%|███████████████████████████████████████▉                                      | 341/665 [1:05:04<37:01,  6.86s/it]
    
    
     51%|███████████████████████████████████████                                     | 342/665 [1:05:47<1:35:07, 17.67s/it]
    
    
     52%|███████████████████████████████████████▏                                    | 343/665 [1:05:57<1:22:03, 15.29s/it]
    
    
     52%|████████████████████████████████████████▎                                     | 344/665 [1:05:58<59:39, 11.15s/it]
    
    
     52%|████████████████████████████████████████▍                                     | 345/665 [1:06:00<43:28,  8.15s/it]
    
    
     52%|████████████████████████████████████████▌                                     | 346/665 [1:06:08<43:44,  8.23s/it]
    
    
     52%|████████████████████████████████████████▊                                     | 348/665 [1:06:08<30:50,  5.84s/it]
    
    
     52%|████████████████████████████████████████▉                                     | 349/665 [1:06:10<23:47,  4.52s/it]
    
    
     53%|█████████████████████████████████████████                                     | 350/665 [1:06:11<18:40,  3.56s/it]
    
    
     53%|█████████████████████████████████████████▏                                    | 351/665 [1:06:12<13:39,  2.61s/it]
    
    
     53%|█████████████████████████████████████████▎                                    | 352/665 [1:06:15<15:09,  2.91s/it]
    
    
     53%|█████████████████████████████████████████▍                                    | 353/665 [1:06:22<21:50,  4.20s/it]
    
    
     53%|█████████████████████████████████████████▌                                    | 354/665 [1:06:24<17:28,  3.37s/it]
    
    
     53%|█████████████████████████████████████████▋                                    | 355/665 [1:06:28<18:22,  3.56s/it]
    
    
     54%|█████████████████████████████████████████▊                                    | 356/665 [1:06:29<15:19,  2.98s/it]
    
    
     54%|█████████████████████████████████████████▊                                    | 357/665 [1:06:31<12:50,  2.50s/it]
    
    
     54%|█████████████████████████████████████████▉                                    | 358/665 [1:06:39<20:45,  4.06s/it]
    
    
     54%|██████████████████████████████████████████                                    | 359/665 [1:06:43<21:45,  4.26s/it]
    
    
     54%|██████████████████████████████████████████▏                                   | 360/665 [1:06:47<20:05,  3.95s/it]
    
    
     54%|██████████████████████████████████████████▎                                   | 361/665 [1:06:48<16:31,  3.26s/it]
    
    
     54%|█████████████████████████████████████████▎                                  | 362/665 [1:09:45<4:38:48, 55.21s/it]
    
    
     55%|█████████████████████████████████████████▍                                  | 363/665 [1:09:47<3:18:10, 39.37s/it]
    
    
     55%|█████████████████████████████████████████▌                                  | 364/665 [1:09:53<2:27:33, 29.41s/it]
    
    
     55%|█████████████████████████████████████████▋                                  | 365/665 [1:09:55<1:45:14, 21.05s/it]
    
    
     55%|█████████████████████████████████████████▊                                  | 366/665 [1:09:57<1:17:19, 15.52s/it]
    
    
     55%|███████████████████████████████████████████                                   | 367/665 [1:09:59<55:49, 11.24s/it]
    
    
     55%|███████████████████████████████████████████▏                                  | 368/665 [1:10:01<41:56,  8.47s/it]
    
    
     55%|███████████████████████████████████████████▎                                  | 369/665 [1:10:03<32:36,  6.61s/it]
    
    
     56%|███████████████████████████████████████████▍                                  | 370/665 [1:10:05<25:20,  5.15s/it]
    
    
     56%|███████████████████████████████████████████▌                                  | 371/665 [1:10:05<18:14,  3.72s/it]
    
    
     56%|███████████████████████████████████████████▊                                  | 373/665 [1:10:07<14:11,  2.92s/it]
    
    
     56%|███████████████████████████████████████████▊                                  | 374/665 [1:10:09<12:29,  2.58s/it]
    
    
     56%|██████████████████████████████████████████▊                                 | 375/665 [1:11:16<1:46:25, 22.02s/it]
    
    
     57%|██████████████████████████████████████████▉                                 | 376/665 [1:11:22<1:23:00, 17.23s/it]
    
    
     57%|███████████████████████████████████████████                                 | 377/665 [1:12:09<2:05:18, 26.10s/it]
    
    
     57%|███████████████████████████████████████████▏                                | 378/665 [1:13:13<2:58:28, 37.31s/it]
    
    
     57%|███████████████████████████████████████████▎                                | 379/665 [1:13:13<2:05:36, 26.35s/it]
    
    
     57%|███████████████████████████████████████████▍                                | 380/665 [1:13:15<1:29:16, 18.79s/it]
    
    
     57%|███████████████████████████████████████████▌                                | 381/665 [1:13:27<1:19:47, 16.86s/it]
    
    
     57%|████████████████████████████████████████████▊                                 | 382/665 [1:13:28<57:11, 12.12s/it]
    
    
     58%|███████████████████████████████████████████▊                                | 383/665 [1:13:56<1:19:01, 16.81s/it]
    
    
     58%|███████████████████████████████████████████▉                                | 384/665 [1:14:09<1:13:05, 15.61s/it]
    
    
     58%|████████████████████████████████████████████                                | 385/665 [1:14:28<1:17:49, 16.68s/it]
    
    
     58%|█████████████████████████████████████████████▎                                | 386/665 [1:14:31<59:06, 12.71s/it]
    
    
     58%|█████████████████████████████████████████████▍                                | 387/665 [1:14:33<43:40,  9.43s/it]
    
    
     58%|█████████████████████████████████████████████▌                                | 388/665 [1:14:51<54:51, 11.88s/it]
    
    
     58%|█████████████████████████████████████████████▋                                | 389/665 [1:14:55<44:12,  9.61s/it]
    
    
     59%|█████████████████████████████████████████████▋                                | 390/665 [1:14:57<33:50,  7.38s/it]
    
    
     59%|█████████████████████████████████████████████▊                                | 391/665 [1:14:58<25:06,  5.50s/it]
    
    
     59%|█████████████████████████████████████████████▉                                | 392/665 [1:15:02<22:13,  4.88s/it]
    
    
     59%|██████████████████████████████████████████████                                | 393/665 [1:15:17<36:52,  8.13s/it]
    
    
     59%|██████████████████████████████████████████████▏                               | 394/665 [1:15:20<28:58,  6.42s/it]
    
    
     59%|██████████████████████████████████████████████▎                               | 395/665 [1:15:28<31:05,  6.91s/it]
    
    
     60%|██████████████████████████████████████████████▍                               | 396/665 [1:15:30<25:02,  5.59s/it]
    
    
     60%|██████████████████████████████████████████████▌                               | 397/665 [1:15:31<19:04,  4.27s/it]
    
    
     60%|██████████████████████████████████████████████▋                               | 398/665 [1:15:42<27:03,  6.08s/it]
    
    
     60%|██████████████████████████████████████████████▊                               | 399/665 [1:15:44<21:57,  4.95s/it]
    
    
     60%|██████████████████████████████████████████████▉                               | 400/665 [1:15:45<17:00,  3.85s/it]
    
    
     60%|███████████████████████████████████████████████                               | 401/665 [1:15:47<13:35,  3.09s/it]
    
    
     60%|███████████████████████████████████████████████▏                              | 402/665 [1:15:48<11:32,  2.63s/it]
    
    
     61%|███████████████████████████████████████████████▎                              | 403/665 [1:16:22<52:53, 12.11s/it]
    
    
     61%|███████████████████████████████████████████████▍                              | 404/665 [1:16:25<40:32,  9.32s/it]
    
    
     61%|███████████████████████████████████████████████▌                              | 405/665 [1:16:35<41:33,  9.59s/it]
    
    
     61%|███████████████████████████████████████████████▌                              | 406/665 [1:16:38<32:24,  7.51s/it]
    
    
     61%|███████████████████████████████████████████████▋                              | 407/665 [1:16:44<30:01,  6.98s/it]
    
    
     61%|███████████████████████████████████████████████▊                              | 408/665 [1:16:45<22:26,  5.24s/it]
    
    
     62%|███████████████████████████████████████████████▉                              | 409/665 [1:17:08<45:19, 10.62s/it]
    
    
     62%|████████████████████████████████████████████████                              | 410/665 [1:17:10<33:35,  7.91s/it]
    
    
     62%|████████████████████████████████████████████████▏                             | 411/665 [1:17:20<35:50,  8.47s/it]
    
    
     62%|████████████████████████████████████████████████▎                             | 412/665 [1:17:21<26:27,  6.27s/it]
    
    
     62%|████████████████████████████████████████████████▍                             | 413/665 [1:17:21<18:58,  4.52s/it]
    
    
     62%|████████████████████████████████████████████████▌                             | 414/665 [1:17:27<20:32,  4.91s/it]
    
    
     62%|████████████████████████████████████████████████▋                             | 415/665 [1:17:32<20:09,  4.84s/it]
    
    
     63%|████████████████████████████████████████████████▊                             | 416/665 [1:17:35<17:35,  4.24s/it]
    
    
     63%|████████████████████████████████████████████████▉                             | 417/665 [1:17:37<14:56,  3.62s/it]
    
    
     63%|█████████████████████████████████████████████████                             | 418/665 [1:17:44<19:21,  4.70s/it]
    
    
     63%|█████████████████████████████████████████████████▏                            | 419/665 [1:17:47<17:22,  4.24s/it]
    
    
     63%|█████████████████████████████████████████████████▎                            | 420/665 [1:17:51<16:58,  4.16s/it]
    
    
     63%|████████████████████████████████████████████████                            | 421/665 [1:20:10<3:01:16, 44.58s/it]
    
    
     63%|████████████████████████████████████████████████▏                           | 422/665 [1:20:15<2:12:45, 32.78s/it]
    
    
     64%|████████████████████████████████████████████████▎                           | 423/665 [1:20:17<1:35:19, 23.63s/it]
    
    
     64%|████████████████████████████████████████████████▍                           | 424/665 [1:20:20<1:09:34, 17.32s/it]
    
    
     64%|█████████████████████████████████████████████████▊                            | 425/665 [1:20:21<49:48, 12.45s/it]
    
    
     64%|█████████████████████████████████████████████████▉                            | 426/665 [1:20:22<36:06,  9.06s/it]
    
    
     64%|██████████████████████████████████████████████████                            | 427/665 [1:20:24<27:20,  6.89s/it]
    
    
     64%|██████████████████████████████████████████████████▏                           | 428/665 [1:20:30<25:44,  6.52s/it]
    
    
     65%|██████████████████████████████████████████████████▍                           | 430/665 [1:20:32<19:08,  4.89s/it]
    
    
     65%|██████████████████████████████████████████████████▌                           | 431/665 [1:20:33<14:58,  3.84s/it]
    
    
     65%|██████████████████████████████████████████████████▋                           | 432/665 [1:20:34<11:37,  2.99s/it]
    
    
     65%|██████████████████████████████████████████████████▊                           | 433/665 [1:20:36<09:38,  2.49s/it]
    
    
     65%|██████████████████████████████████████████████████▉                           | 434/665 [1:20:39<10:03,  2.61s/it]
    
    
     65%|███████████████████████████████████████████████████                           | 435/665 [1:20:39<07:56,  2.07s/it]
    
    
     66%|███████████████████████████████████████████████████▏                          | 436/665 [1:20:49<16:43,  4.38s/it]
    
    
     66%|███████████████████████████████████████████████████▎                          | 437/665 [1:20:50<13:04,  3.44s/it]
    
    
     66%|███████████████████████████████████████████████████▎                          | 438/665 [1:20:52<10:36,  2.80s/it]
    
    
     66%|███████████████████████████████████████████████████▍                          | 439/665 [1:20:56<12:16,  3.26s/it]
    
    
     66%|███████████████████████████████████████████████████▌                          | 440/665 [1:21:00<12:49,  3.42s/it]
    
    
     66%|███████████████████████████████████████████████████▋                          | 441/665 [1:21:00<09:24,  2.52s/it]
    
    
     66%|███████████████████████████████████████████████████▊                          | 442/665 [1:21:02<08:04,  2.17s/it]
    
    
     67%|███████████████████████████████████████████████████▉                          | 443/665 [1:21:03<07:40,  2.07s/it]
    
    
     67%|████████████████████████████████████████████████████                          | 444/665 [1:21:43<49:16, 13.38s/it]
    
    
     67%|████████████████████████████████████████████████████▏                         | 445/665 [1:22:00<53:08, 14.49s/it]
    
    
     67%|████████████████████████████████████████████████████▎                         | 446/665 [1:22:02<39:03, 10.70s/it]
    
    
     67%|████████████████████████████████████████████████████▍                         | 447/665 [1:22:04<29:36,  8.15s/it]
    
    
     67%|████████████████████████████████████████████████████▌                         | 448/665 [1:22:06<22:07,  6.12s/it]
    
    
     68%|████████████████████████████████████████████████████▋                         | 449/665 [1:22:13<23:00,  6.39s/it]
    
    
     68%|████████████████████████████████████████████████████▊                         | 450/665 [1:22:13<16:25,  4.58s/it]
    
    
     68%|████████████████████████████████████████████████████▉                         | 451/665 [1:22:15<13:12,  3.70s/it]
    
    
     68%|█████████████████████████████████████████████████████                         | 452/665 [1:22:17<11:08,  3.14s/it]
    
    
     68%|█████████████████████████████████████████████████████▏                        | 453/665 [1:22:21<12:26,  3.52s/it]
    
    
     68%|█████████████████████████████████████████████████████▎                        | 454/665 [1:22:23<10:43,  3.05s/it]
    
    
     68%|█████████████████████████████████████████████████████▎                        | 455/665 [1:22:25<09:27,  2.70s/it]
    
    
     69%|█████████████████████████████████████████████████████▍                        | 456/665 [1:22:26<08:09,  2.34s/it]
    
    
     69%|█████████████████████████████████████████████████████▌                        | 457/665 [1:22:28<07:00,  2.02s/it]
    
    
     69%|█████████████████████████████████████████████████████▋                        | 458/665 [1:22:31<08:22,  2.43s/it]
    
    
     69%|█████████████████████████████████████████████████████▊                        | 459/665 [1:23:15<51:01, 14.86s/it]
    
    
     69%|████████████████████████████████████████████████████▌                       | 460/665 [1:23:40<1:01:13, 17.92s/it]
    
    
     69%|██████████████████████████████████████████████████████                        | 461/665 [1:23:45<47:24, 13.95s/it]
    
    
     69%|████████████████████████████████████████████████████▊                       | 462/665 [1:24:15<1:03:43, 18.84s/it]
    
    
     70%|██████████████████████████████████████████████████████▎                       | 463/665 [1:24:26<55:08, 16.38s/it]
    
    
     70%|██████████████████████████████████████████████████████▍                       | 464/665 [1:24:28<41:06, 12.27s/it]
    
    
     70%|██████████████████████████████████████████████████████▌                       | 465/665 [1:24:30<30:08,  9.04s/it]
    
    
     70%|██████████████████████████████████████████████████████▋                       | 466/665 [1:24:36<27:07,  8.18s/it]
    
    
     70%|█████████████████████████████████████████████████████▎                      | 467/665 [1:25:49<1:31:25, 27.70s/it]
    
    
     70%|█████████████████████████████████████████████████████▍                      | 468/665 [1:25:56<1:10:35, 21.50s/it]
    
    
     71%|███████████████████████████████████████████████████████                       | 469/665 [1:25:58<50:47, 15.55s/it]
    
    
     71%|███████████████████████████████████████████████████████▏                      | 470/665 [1:26:00<37:01, 11.39s/it]
    
    
     71%|███████████████████████████████████████████████████████▏                      | 471/665 [1:26:06<32:18,  9.99s/it]
    
    
     71%|███████████████████████████████████████████████████████▎                      | 472/665 [1:26:08<24:22,  7.58s/it]
    
    
     71%|███████████████████████████████████████████████████████▍                      | 473/665 [1:26:11<19:53,  6.22s/it]
    
    
     71%|███████████████████████████████████████████████████████▌                      | 474/665 [1:26:15<17:50,  5.60s/it]
    
    
     71%|██████████████████████████████████████████████████████▎                     | 475/665 [1:27:17<1:10:43, 22.33s/it]
    
    
     72%|███████████████████████████████████████████████████████▊                      | 476/665 [1:27:23<55:15, 17.54s/it]
    
    
     72%|███████████████████████████████████████████████████████▉                      | 477/665 [1:27:27<41:37, 13.29s/it]
    
    
     72%|████████████████████████████████████████████████████████                      | 478/665 [1:27:30<31:48, 10.20s/it]
    
    
     72%|████████████████████████████████████████████████████████▎                     | 480/665 [1:27:30<22:27,  7.28s/it]
    
    
     72%|████████████████████████████████████████████████████████▍                     | 481/665 [1:27:34<19:15,  6.28s/it]
    
    
     72%|████████████████████████████████████████████████████████▌                     | 482/665 [1:27:35<14:04,  4.61s/it]
    
    
     73%|████████████████████████████████████████████████████████▋                     | 483/665 [1:27:37<11:08,  3.67s/it]
    
    
     73%|████████████████████████████████████████████████████████▊                     | 484/665 [1:28:00<29:06,  9.65s/it]
    
    
     73%|████████████████████████████████████████████████████████▉                     | 485/665 [1:28:04<23:58,  7.99s/it]
    
    
     73%|█████████████████████████████████████████████████████████                     | 486/665 [1:28:11<22:17,  7.47s/it]
    
    
     73%|█████████████████████████████████████████████████████████                     | 487/665 [1:28:16<20:18,  6.85s/it]
    
    
     73%|█████████████████████████████████████████████████████████▏                    | 488/665 [1:28:18<16:14,  5.51s/it]
    
    
     74%|█████████████████████████████████████████████████████████▎                    | 489/665 [1:28:20<12:54,  4.40s/it]
    
    
     74%|█████████████████████████████████████████████████████████▍                    | 490/665 [1:28:22<10:19,  3.54s/it]
    
    
     74%|████████████████████████████████████████████████████████                    | 491/665 [1:29:29<1:05:20, 22.53s/it]
    
    
     74%|█████████████████████████████████████████████████████████▋                    | 492/665 [1:29:30<47:06, 16.34s/it]
    
    
     74%|█████████████████████████████████████████████████████████▊                    | 493/665 [1:29:32<33:42, 11.76s/it]
    
    
     74%|█████████████████████████████████████████████████████████▉                    | 494/665 [1:29:32<23:54,  8.39s/it]
    
    
     74%|██████████████████████████████████████████████████████████                    | 495/665 [1:29:33<17:41,  6.25s/it]
    
    
     75%|██████████████████████████████████████████████████████████▏                   | 496/665 [1:29:39<16:57,  6.02s/it]
    
    
     75%|██████████████████████████████████████████████████████████▎                   | 497/665 [1:29:46<18:13,  6.51s/it]
    
    
     75%|██████████████████████████████████████████████████████████▍                   | 498/665 [1:29:52<17:15,  6.20s/it]
    
    
     75%|██████████████████████████████████████████████████████████▌                   | 499/665 [1:29:53<12:48,  4.63s/it]
    
    
     75%|██████████████████████████████████████████████████████████▋                   | 500/665 [1:29:54<09:55,  3.61s/it]
    
    
     75%|██████████████████████████████████████████████████████████▊                   | 501/665 [1:30:13<22:28,  8.22s/it]
    
    
     75%|██████████████████████████████████████████████████████████▉                   | 502/665 [1:30:15<17:08,  6.31s/it]
    
    
     76%|██████████████████████████████████████████████████████████▉                   | 503/665 [1:30:18<14:26,  5.35s/it]
    
    
     76%|███████████████████████████████████████████████████████████                   | 504/665 [1:30:19<11:08,  4.15s/it]
    
    
     76%|███████████████████████████████████████████████████████████▏                  | 505/665 [1:30:20<08:32,  3.21s/it]
    
    
     76%|███████████████████████████████████████████████████████████▎                  | 506/665 [1:30:22<07:17,  2.75s/it]
    
    
     76%|███████████████████████████████████████████████████████████▍                  | 507/665 [1:30:24<06:27,  2.45s/it]
    
    
     76%|███████████████████████████████████████████████████████████▌                  | 508/665 [1:30:25<05:16,  2.02s/it]
    
    
     77%|███████████████████████████████████████████████████████████▋                  | 509/665 [1:30:42<17:21,  6.67s/it]
    
    
     77%|███████████████████████████████████████████████████████████▊                  | 510/665 [1:30:43<12:39,  4.90s/it]
    
    
     77%|███████████████████████████████████████████████████████████▉                  | 511/665 [1:30:44<09:33,  3.72s/it]
    
    
     77%|████████████████████████████████████████████████████████████                  | 512/665 [1:30:47<08:33,  3.36s/it]
    
    
     77%|████████████████████████████████████████████████████████████▏                 | 513/665 [1:30:54<11:45,  4.64s/it]
    
    
     77%|████████████████████████████████████████████████████████████▎                 | 514/665 [1:30:56<09:12,  3.66s/it]
    
    
     77%|████████████████████████████████████████████████████████████▍                 | 515/665 [1:31:10<17:08,  6.86s/it]
    
    
     78%|████████████████████████████████████████████████████████████▌                 | 516/665 [1:31:11<12:39,  5.10s/it]
    
    
     78%|████████████████████████████████████████████████████████████▋                 | 517/665 [1:31:14<10:53,  4.42s/it]
    
    
     78%|████████████████████████████████████████████████████████████▊                 | 518/665 [1:31:15<08:15,  3.37s/it]
    
    
     78%|████████████████████████████████████████████████████████████▉                 | 519/665 [1:31:35<20:28,  8.41s/it]
    
    
     78%|████████████████████████████████████████████████████████████▉                 | 520/665 [1:31:36<14:53,  6.16s/it]
    
    
     78%|█████████████████████████████████████████████████████████████                 | 521/665 [1:31:37<11:23,  4.75s/it]
    
    
     78%|█████████████████████████████████████████████████████████████▏                | 522/665 [1:31:38<08:42,  3.65s/it]
    
    
     79%|█████████████████████████████████████████████████████████████▎                | 523/665 [1:31:41<08:07,  3.43s/it]
    
    
     79%|█████████████████████████████████████████████████████████████▍                | 524/665 [1:31:42<06:29,  2.76s/it]
    
    
     79%|█████████████████████████████████████████████████████████████▌                | 525/665 [1:31:44<05:33,  2.38s/it]
    
    
     79%|█████████████████████████████████████████████████████████████▋                | 526/665 [1:31:47<05:43,  2.47s/it]
    
    
     79%|█████████████████████████████████████████████████████████████▊                | 527/665 [1:31:49<05:54,  2.57s/it]
    
    
     79%|█████████████████████████████████████████████████████████████▉                | 528/665 [1:31:52<05:46,  2.53s/it]
    
    
     80%|██████████████████████████████████████████████████████████████                | 529/665 [1:31:57<07:16,  3.21s/it]
    
    
     80%|██████████████████████████████████████████████████████████████▏               | 530/665 [1:31:59<06:30,  2.89s/it]
    
    
     80%|██████████████████████████████████████████████████████████████▎               | 531/665 [1:32:05<08:39,  3.87s/it]
    
    
     80%|██████████████████████████████████████████████████████████████▍               | 532/665 [1:32:08<07:47,  3.52s/it]
    
    
     80%|██████████████████████████████████████████████████████████████▌               | 533/665 [1:32:10<06:43,  3.06s/it]
    
    
     80%|██████████████████████████████████████████████████████████████▋               | 534/665 [1:32:11<05:17,  2.43s/it]
    
    
     80%|█████████████████████████████████████████████████████████████▏              | 535/665 [1:35:20<2:06:37, 58.44s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▎              | 536/665 [1:35:21<1:28:39, 41.24s/it]
    
    
     81%|█████████████████████████████████████████████████████████████▎              | 537/665 [1:35:31<1:08:17, 32.01s/it]
    
    
     81%|███████████████████████████████████████████████████████████████               | 538/665 [1:35:35<49:54, 23.58s/it]
    
    
     81%|███████████████████████████████████████████████████████████████▏              | 539/665 [1:35:38<36:23, 17.33s/it]
    
    
     81%|███████████████████████████████████████████████████████████████▎              | 540/665 [1:35:39<25:46, 12.37s/it]
    
    
     81%|███████████████████████████████████████████████████████████████▍              | 541/665 [1:35:42<19:38,  9.50s/it]
    
    
     82%|███████████████████████████████████████████████████████████████▌              | 542/665 [1:36:09<30:38, 14.95s/it]
    
    
     82%|███████████████████████████████████████████████████████████████▋              | 543/665 [1:36:15<24:45, 12.18s/it]
    
    
     82%|███████████████████████████████████████████████████████████████▊              | 544/665 [1:36:15<17:24,  8.64s/it]
    
    
     82%|███████████████████████████████████████████████████████████████▉              | 545/665 [1:36:16<12:34,  6.29s/it]
    
    
     82%|████████████████████████████████████████████████████████████████              | 546/665 [1:36:20<11:20,  5.71s/it]
    
    
     82%|████████████████████████████████████████████████████████████████▏             | 547/665 [1:36:24<10:11,  5.19s/it]
    
    
     82%|████████████████████████████████████████████████████████████████▎             | 548/665 [1:36:28<09:04,  4.66s/it]
    
    
     83%|████████████████████████████████████████████████████████████████▍             | 549/665 [1:36:29<07:03,  3.65s/it]
    
    
     83%|████████████████████████████████████████████████████████████████▌             | 550/665 [1:36:33<07:12,  3.76s/it]
    
    
     83%|████████████████████████████████████████████████████████████████▋             | 551/665 [1:36:37<06:54,  3.63s/it]
    
    
     83%|████████████████████████████████████████████████████████████████▋             | 552/665 [1:36:40<06:48,  3.62s/it]
    
    
     83%|████████████████████████████████████████████████████████████████▊             | 553/665 [1:36:43<06:18,  3.38s/it]
    
    
     83%|████████████████████████████████████████████████████████████████▉             | 554/665 [1:36:57<12:11,  6.59s/it]
    
    
     83%|█████████████████████████████████████████████████████████████████             | 555/665 [1:37:01<10:26,  5.69s/it]
    
    
     84%|█████████████████████████████████████████████████████████████████▏            | 556/665 [1:37:02<08:11,  4.51s/it]
    
    
     84%|█████████████████████████████████████████████████████████████████▎            | 557/665 [1:37:04<06:39,  3.70s/it]
    
    
     84%|█████████████████████████████████████████████████████████████████▍            | 558/665 [1:37:06<05:35,  3.13s/it]
    
    
     84%|█████████████████████████████████████████████████████████████████▌            | 559/665 [1:37:22<12:31,  7.09s/it]
    
    
     84%|█████████████████████████████████████████████████████████████████▋            | 560/665 [1:37:26<10:29,  6.00s/it]
    
    
     84%|█████████████████████████████████████████████████████████████████▊            | 561/665 [1:37:26<07:25,  4.28s/it]
    
    
     85%|█████████████████████████████████████████████████████████████████▉            | 562/665 [1:37:27<05:43,  3.34s/it]
    
    
     85%|██████████████████████████████████████████████████████████████████            | 563/665 [1:37:28<04:35,  2.70s/it]
    
    
     85%|██████████████████████████████████████████████████████████████████▏           | 564/665 [1:37:29<03:35,  2.13s/it]
    
    
     85%|██████████████████████████████████████████████████████████████████▎           | 565/665 [1:37:31<03:23,  2.03s/it]
    
    
     85%|██████████████████████████████████████████████████████████████████▍           | 566/665 [1:37:32<02:58,  1.80s/it]
    
    
     85%|██████████████████████████████████████████████████████████████████▌           | 567/665 [1:37:50<10:37,  6.51s/it]
    
    
     85%|██████████████████████████████████████████████████████████████████▌           | 568/665 [1:38:39<31:02, 19.20s/it]
    
    
     86%|██████████████████████████████████████████████████████████████████▋           | 569/665 [1:38:40<22:15, 13.91s/it]
    
    
     86%|██████████████████████████████████████████████████████████████████▊           | 570/665 [1:38:41<15:42,  9.92s/it]
    
    
     86%|██████████████████████████████████████████████████████████████████▉           | 571/665 [1:38:47<13:49,  8.83s/it]
    
    
     86%|███████████████████████████████████████████████████████████████████           | 572/665 [1:39:28<28:40, 18.50s/it]
    
    
     86%|███████████████████████████████████████████████████████████████████▏          | 573/665 [1:39:30<20:55, 13.65s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████▌          | 574/665 [1:42:08<1:26:11, 56.83s/it]
    
    
     86%|█████████████████████████████████████████████████████████████████▋          | 575/665 [1:42:13<1:02:06, 41.41s/it]
    
    
     87%|███████████████████████████████████████████████████████████████████▌          | 576/665 [1:42:24<47:29, 32.02s/it]
    
    
     87%|███████████████████████████████████████████████████████████████████▋          | 577/665 [1:42:29<35:14, 24.03s/it]
    
    
     87%|███████████████████████████████████████████████████████████████████▊          | 578/665 [1:42:31<25:30, 17.59s/it]
    
    
     87%|███████████████████████████████████████████████████████████████████▉          | 579/665 [1:42:36<19:44, 13.77s/it]
    
    
     87%|████████████████████████████████████████████████████████████████████          | 580/665 [1:42:41<15:29, 10.93s/it]
    
    
     87%|████████████████████████████████████████████████████████████████████▏         | 581/665 [1:42:45<12:22,  8.84s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▎         | 582/665 [1:42:46<09:05,  6.58s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▍         | 583/665 [1:42:50<07:48,  5.71s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▍         | 584/665 [1:42:57<08:30,  6.31s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▌         | 585/665 [1:43:59<30:45, 23.07s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▋         | 586/665 [1:44:02<22:10, 16.84s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▊         | 587/665 [1:44:03<15:40, 12.05s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▉         | 588/665 [1:44:05<11:40,  9.09s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████         | 589/665 [1:44:06<08:33,  6.75s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████▏        | 590/665 [1:44:16<09:28,  7.58s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████▎        | 591/665 [1:44:18<07:35,  6.15s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████▍        | 592/665 [1:44:21<06:11,  5.09s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████▌        | 593/665 [1:44:22<04:32,  3.79s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████▋        | 594/665 [1:44:24<03:57,  3.35s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████▊        | 595/665 [1:44:27<03:33,  3.05s/it]
    
    
     90%|█████████████████████████████████████████████████████████████████████▉        | 596/665 [1:44:29<03:22,  2.94s/it]
    
    
     90%|██████████████████████████████████████████████████████████████████████        | 597/665 [1:44:31<02:56,  2.60s/it]
    
    
     90%|██████████████████████████████████████████████████████████████████████▏       | 598/665 [1:44:31<02:10,  1.94s/it]
    
    
     90%|██████████████████████████████████████████████████████████████████████▎       | 599/665 [1:44:34<02:17,  2.09s/it]
    
    
     90%|██████████████████████████████████████████████████████████████████████▍       | 600/665 [1:44:36<02:20,  2.16s/it]
    
    
     90%|██████████████████████████████████████████████████████████████████████▍       | 601/665 [1:44:38<02:13,  2.08s/it]
    
    
     91%|██████████████████████████████████████████████████████████████████████▌       | 602/665 [1:44:38<01:39,  1.58s/it]
    
    
     91%|██████████████████████████████████████████████████████████████████████▋       | 603/665 [1:44:43<02:38,  2.55s/it]
    
    
     91%|██████████████████████████████████████████████████████████████████████▊       | 604/665 [1:44:46<02:38,  2.59s/it]
    
    
     91%|██████████████████████████████████████████████████████████████████████▉       | 605/665 [1:44:54<04:16,  4.27s/it]
    
    
     91%|███████████████████████████████████████████████████████████████████████       | 606/665 [1:44:58<04:06,  4.17s/it]
    
    
     91%|███████████████████████████████████████████████████████████████████████▏      | 607/665 [1:46:32<30:06, 31.15s/it]
    
    
     91%|███████████████████████████████████████████████████████████████████████▎      | 608/665 [1:46:33<20:57, 22.07s/it]
    
    
     92%|███████████████████████████████████████████████████████████████████████▍      | 609/665 [1:46:35<15:05, 16.16s/it]
    
    
     92%|███████████████████████████████████████████████████████████████████████▌      | 610/665 [1:46:38<11:08, 12.15s/it]
    
    
     92%|███████████████████████████████████████████████████████████████████████▋      | 611/665 [1:46:40<08:05,  8.99s/it]
    
    
     92%|███████████████████████████████████████████████████████████████████████▊      | 612/665 [1:46:41<05:58,  6.76s/it]
    
    
     92%|███████████████████████████████████████████████████████████████████████▉      | 613/665 [1:46:45<04:53,  5.65s/it]
    
    
     92%|████████████████████████████████████████████████████████████████████████      | 614/665 [1:46:45<03:28,  4.09s/it]
    
    
     92%|████████████████████████████████████████████████████████████████████████▏     | 615/665 [1:46:46<02:44,  3.29s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████████▎     | 616/665 [1:46:48<02:20,  2.88s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████████▎     | 617/665 [1:46:51<02:13,  2.79s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████████▍     | 618/665 [1:47:44<14:04, 17.96s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████████▌     | 619/665 [1:48:10<15:35, 20.33s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████████▋     | 620/665 [1:48:11<10:56, 14.60s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████████▊     | 621/665 [1:48:28<11:15, 15.35s/it]
    
    
     94%|████████████████████████████████████████████████████████████████████████▉     | 622/665 [1:48:30<08:00, 11.18s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████████     | 623/665 [1:49:46<21:23, 30.55s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████████▏    | 624/665 [1:49:49<15:16, 22.35s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████████▎    | 625/665 [1:49:57<12:05, 18.15s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████████▍    | 626/665 [1:50:01<08:58, 13.81s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████████▌    | 627/665 [1:50:03<06:31, 10.31s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████████▋    | 628/665 [1:50:24<08:22, 13.58s/it]
    
    
     95%|█████████████████████████████████████████████████████████████████████████▊    | 629/665 [1:50:31<06:55, 11.54s/it]
    
    
     95%|█████████████████████████████████████████████████████████████████████████▉    | 630/665 [1:50:33<04:58,  8.53s/it]
    
    
     95%|██████████████████████████████████████████████████████████████████████████    | 631/665 [1:50:49<06:13, 11.00s/it]
    
    
     95%|██████████████████████████████████████████████████████████████████████████▏   | 632/665 [1:50:51<04:33,  8.28s/it]
    
    
     95%|██████████████████████████████████████████████████████████████████████████▏   | 633/665 [1:50:54<03:36,  6.75s/it]
    
    
     95%|██████████████████████████████████████████████████████████████████████████▎   | 634/665 [1:50:56<02:42,  5.23s/it]
    
    
     95%|██████████████████████████████████████████████████████████████████████████▍   | 635/665 [1:50:57<01:54,  3.80s/it]
    
    
     96%|██████████████████████████████████████████████████████████████████████████▌   | 636/665 [1:51:03<02:14,  4.63s/it]
    
    
     96%|██████████████████████████████████████████████████████████████████████████▋   | 637/665 [1:51:05<01:44,  3.74s/it]
    
    
     96%|██████████████████████████████████████████████████████████████████████████▊   | 638/665 [1:51:13<02:20,  5.19s/it]
    
    
     96%|██████████████████████████████████████████████████████████████████████████▉   | 639/665 [1:51:32<04:02,  9.33s/it]
    
    
     96%|███████████████████████████████████████████████████████████████████████████   | 640/665 [1:51:34<02:54,  6.98s/it]
    
    
     96%|███████████████████████████████████████████████████████████████████████████▏  | 641/665 [1:51:40<02:40,  6.67s/it]
    
    
     97%|███████████████████████████████████████████████████████████████████████████▎  | 642/665 [1:51:42<02:00,  5.25s/it]
    
    
     97%|███████████████████████████████████████████████████████████████████████████▍  | 643/665 [1:51:43<01:31,  4.17s/it]
    
    
     97%|███████████████████████████████████████████████████████████████████████████▌  | 644/665 [1:51:45<01:09,  3.31s/it]
    
    
     97%|███████████████████████████████████████████████████████████████████████████▋  | 645/665 [1:51:48<01:05,  3.29s/it]
    
    
     97%|███████████████████████████████████████████████████████████████████████████▊  | 646/665 [1:51:49<00:50,  2.67s/it]
    
    
     97%|███████████████████████████████████████████████████████████████████████████▉  | 647/665 [1:52:11<02:32,  8.47s/it]
    
    
     97%|████████████████████████████████████████████████████████████████████████████  | 648/665 [1:52:16<02:07,  7.50s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████  | 649/665 [1:52:18<01:32,  5.78s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████▏ | 650/665 [1:52:19<01:04,  4.30s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████▎ | 651/665 [1:52:56<03:16, 14.07s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████▍ | 652/665 [1:52:57<02:11, 10.14s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████▌ | 653/665 [1:52:58<01:28,  7.34s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████▋ | 654/665 [1:53:00<01:02,  5.72s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████▊ | 655/665 [1:53:01<00:43,  4.34s/it]
    
    
     99%|████████████████████████████████████████████████████████████████████████████▉ | 656/665 [1:53:02<00:31,  3.56s/it]
    
    
     99%|█████████████████████████████████████████████████████████████████████████████ | 657/665 [1:53:04<00:24,  3.03s/it]
    
    
     99%|█████████████████████████████████████████████████████████████████████████████▏| 658/665 [1:53:08<00:23,  3.32s/it]
    
    
     99%|█████████████████████████████████████████████████████████████████████████████▎| 659/665 [1:53:44<01:18, 13.06s/it]
    
    
     99%|█████████████████████████████████████████████████████████████████████████████▍| 660/665 [1:53:46<00:48,  9.64s/it]
    
    
     99%|█████████████████████████████████████████████████████████████████████████████▌| 661/665 [1:53:46<00:27,  6.97s/it]
    
    
    100%|█████████████████████████████████████████████████████████████████████████████▋| 662/665 [1:54:06<00:32, 10.83s/it]
    
    
    100%|█████████████████████████████████████████████████████████████████████████████▊| 663/665 [1:54:09<00:16,  8.27s/it]
    
    
    100%|█████████████████████████████████████████████████████████████████████████████▉| 664/665 [1:54:51<00:18, 18.44s/it]
    
    
    100%|██████████████████████████████████████████████████████████████████████████████| 665/665 [1:54:53<00:00, 13.74s/it]
    In [63]:
    df3_q1 = pd.DataFrame(test_df.q1_feats_m.values.tolist(), index= test_df.index)
    
    In [64]:
    if not os.path.isfile('FEATUREtfidfw2vTEST.csv'):
        df3_q1['ID']=test_df['ID']
        resultEST  = test_df.merge(df3_q1, on='ID',how='left')
        resultEST.to_csv('FEATUREtfidfw2vTEST.csv')
    

    cv

    In [65]:
    questions = list(cv_df['TEXT'])
    tfidf = TfidfVectorizer(lowercase=False, )
    x=tfidf.fit_transform(questions)
    
    # dict key:word and value:tf-idf score
    
    word2tfidf = dict(zip(tfidf.get_feature_names(), tfidf.idf_))
    
    In [66]:
    import en_core_web_sm
    # en_vectors_web_lg, which includes over 1 million unique vectors.
    nlp = en_core_web_sm.load()
    
    vecs1 = []
    # https://github.com/noamraph/tqdm
    # tqdm is used to print the progress bar
    for qu1 in tqdm(list(cv_df['TEXT'])):
        doc1 = nlp(qu1) 
        #  is the number of dimensions of vectors 
        mean_vec1 = np.zeros([len(doc1),96 ])
        for word1 in doc1:
            # word2vec
            vec1 = word1.vector
            # fetch df score
            try:
                idf = word2tfidf[str(word1)]
            except:
                idf = 0
            # compute final vec
            mean_vec1 += vec1 * idf
        mean_vec1 = mean_vec1.mean(axis=0)
        vecs1.append(mean_vec1)
    cv_df['q1_feats_m'] = list(vecs1)
    
    
    
      0%|                                                                                          | 0/532 [00:00<?, ?it/s]
    
    
      0%|▏                                                                                 | 1/532 [00:04<37:14,  4.21s/it]
    
    
      0%|▎                                                                                 | 2/532 [00:05<28:45,  3.25s/it]
    
    
      1%|▍                                                                               | 3/532 [00:28<1:21:19,  9.22s/it]
    
    
      1%|▌                                                                               | 4/532 [00:32<1:08:12,  7.75s/it]
    
    
      1%|▊                                                                                 | 5/532 [00:33<50:56,  5.80s/it]
    
    
      1%|▉                                                                                 | 6/532 [00:36<41:44,  4.76s/it]
    
    
      1%|█                                                                                 | 7/532 [00:38<34:40,  3.96s/it]
    
    
      2%|█▏                                                                                | 8/532 [00:41<31:44,  3.64s/it]
    
    
      2%|█▎                                                                              | 9/532 [01:02<1:16:54,  8.82s/it]
    
    
      2%|█▌                                                                               | 10/532 [01:03<57:07,  6.57s/it]
    
    
      2%|█▋                                                                               | 11/532 [01:05<46:03,  5.30s/it]
    
    
      2%|█▊                                                                               | 12/532 [01:11<47:15,  5.45s/it]
    
    
      2%|█▉                                                                             | 13/532 [02:24<3:42:10, 25.69s/it]
    
    
      3%|██                                                                             | 14/532 [02:25<2:38:46, 18.39s/it]
    
    
      3%|██▏                                                                            | 15/532 [02:27<1:53:49, 13.21s/it]
    
    
      3%|██▍                                                                            | 16/532 [02:28<1:22:45,  9.62s/it]
    
    
      3%|██▌                                                                            | 17/532 [02:33<1:10:35,  8.22s/it]
    
    
      3%|██▋                                                                              | 18/532 [02:34<51:52,  6.05s/it]
    
    
      4%|██▊                                                                            | 19/532 [02:46<1:07:15,  7.87s/it]
    
    
      4%|██▉                                                                            | 20/532 [02:51<1:00:28,  7.09s/it]
    
    
      4%|███▏                                                                             | 21/532 [02:53<47:44,  5.60s/it]
    
    
      4%|███▎                                                                             | 22/532 [02:56<39:47,  4.68s/it]
    
    
      4%|███▌                                                                             | 23/532 [02:57<31:38,  3.73s/it]
    
    
      5%|███▋                                                                             | 24/532 [03:09<51:35,  6.09s/it]
    
    
      5%|███▊                                                                             | 25/532 [03:12<44:27,  5.26s/it]
    
    
      5%|███▉                                                                             | 26/532 [03:16<41:10,  4.88s/it]
    
    
      5%|████                                                                             | 27/532 [03:18<32:40,  3.88s/it]
    
    
      5%|████▎                                                                            | 28/532 [03:27<47:18,  5.63s/it]
    
    
      5%|████▍                                                                            | 29/532 [03:29<36:07,  4.31s/it]
    
    
      6%|████▌                                                                            | 30/532 [03:31<30:02,  3.59s/it]
    
    
      6%|████▋                                                                            | 31/532 [03:37<36:54,  4.42s/it]
    
    
      6%|████▊                                                                            | 32/532 [03:38<28:46,  3.45s/it]
    
    
      6%|█████                                                                            | 33/532 [03:39<22:37,  2.72s/it]
    
    
      6%|█████▏                                                                           | 34/532 [03:50<41:57,  5.06s/it]
    
    
      7%|█████▎                                                                           | 35/532 [03:52<36:16,  4.38s/it]
    
    
      7%|█████▍                                                                           | 36/532 [03:55<32:24,  3.92s/it]
    
    
      7%|█████▋                                                                           | 37/532 [03:56<24:37,  2.98s/it]
    
    
      7%|█████▊                                                                           | 38/532 [04:03<34:43,  4.22s/it]
    
    
      7%|█████▉                                                                           | 39/532 [04:06<31:18,  3.81s/it]
    
    
      8%|██████                                                                           | 40/532 [04:10<31:31,  3.84s/it]
    
    
      8%|██████▏                                                                          | 41/532 [04:11<25:05,  3.07s/it]
    
    
      8%|██████▍                                                                          | 42/532 [04:12<19:09,  2.35s/it]
    
    
      8%|██████▌                                                                          | 43/532 [04:26<46:38,  5.72s/it]
    
    
      8%|██████▋                                                                          | 44/532 [04:34<52:14,  6.42s/it]
    
    
      8%|██████▋                                                                        | 45/532 [04:59<1:38:03, 12.08s/it]
    
    
      9%|██████▊                                                                        | 46/532 [05:00<1:10:21,  8.69s/it]
    
    
      9%|██████▉                                                                        | 47/532 [05:05<1:01:59,  7.67s/it]
    
    
      9%|███████▎                                                                         | 48/532 [05:08<49:44,  6.17s/it]
    
    
      9%|███████▍                                                                         | 49/532 [05:08<36:44,  4.56s/it]
    
    
     10%|███████▊                                                                         | 51/532 [05:10<27:13,  3.40s/it]
    
    
     10%|███████▉                                                                         | 52/532 [05:15<31:43,  3.97s/it]
    
    
     10%|████████                                                                         | 53/532 [05:23<41:25,  5.19s/it]
    
    
     10%|████████▏                                                                        | 54/532 [05:25<34:20,  4.31s/it]
    
    
     10%|████████▎                                                                        | 55/532 [05:27<26:45,  3.37s/it]
    
    
     11%|████████▌                                                                        | 56/532 [05:27<20:14,  2.55s/it]
    
    
     11%|████████▋                                                                        | 57/532 [05:32<26:02,  3.29s/it]
    
    
     11%|████████▊                                                                        | 58/532 [05:38<31:22,  3.97s/it]
    
    
     11%|████████▉                                                                        | 59/532 [05:49<48:09,  6.11s/it]
    
    
     11%|█████████▏                                                                       | 60/532 [05:54<45:20,  5.76s/it]
    
    
     11%|█████████▎                                                                       | 61/532 [05:58<42:18,  5.39s/it]
    
    
     12%|█████████▍                                                                       | 62/532 [05:59<31:37,  4.04s/it]
    
    
     12%|█████████▎                                                                     | 63/532 [06:29<1:31:18, 11.68s/it]
    
    
     12%|█████████▌                                                                     | 64/532 [06:31<1:09:04,  8.86s/it]
    
    
     12%|█████████▉                                                                       | 65/532 [06:32<50:09,  6.45s/it]
    
    
     12%|██████████                                                                       | 66/532 [06:38<49:17,  6.35s/it]
    
    
     13%|██████████▏                                                                      | 67/532 [06:42<43:28,  5.61s/it]
    
    
     13%|██████████▎                                                                      | 68/532 [06:43<32:55,  4.26s/it]
    
    
     13%|██████████▌                                                                      | 69/532 [06:47<32:49,  4.25s/it]
    
    
     13%|██████████▋                                                                      | 70/532 [06:59<49:54,  6.48s/it]
    
    
     13%|██████████▊                                                                      | 71/532 [07:00<38:27,  5.01s/it]
    
    
     14%|██████████▉                                                                      | 72/532 [07:01<27:55,  3.64s/it]
    
    
     14%|███████████                                                                      | 73/532 [07:02<21:45,  2.84s/it]
    
    
     14%|███████████▎                                                                     | 74/532 [07:13<40:04,  5.25s/it]
    
    
     14%|███████████▍                                                                     | 75/532 [07:13<29:15,  3.84s/it]
    
    
     14%|███████████▌                                                                     | 76/532 [07:16<26:45,  3.52s/it]
    
    
     14%|███████████▋                                                                     | 77/532 [07:18<22:50,  3.01s/it]
    
    
     15%|███████████▉                                                                     | 78/532 [07:18<16:31,  2.18s/it]
    
    
     15%|████████████                                                                     | 79/532 [07:25<26:25,  3.50s/it]
    
    
     15%|████████████▏                                                                    | 80/532 [07:33<36:51,  4.89s/it]
    
    
     15%|████████████▎                                                                    | 81/532 [07:35<30:02,  4.00s/it]
    
    
     15%|████████████▍                                                                    | 82/532 [07:38<28:22,  3.78s/it]
    
    
     16%|████████████▋                                                                    | 83/532 [07:53<54:16,  7.25s/it]
    
    
     16%|████████████▊                                                                    | 84/532 [07:54<38:52,  5.21s/it]
    
    
     16%|████████████▉                                                                    | 85/532 [07:54<28:43,  3.86s/it]
    
    
     16%|█████████████                                                                    | 86/532 [07:57<24:45,  3.33s/it]
    
    
     16%|█████████████▏                                                                   | 87/532 [07:58<21:08,  2.85s/it]
    
    
     17%|█████████████▍                                                                   | 88/532 [08:03<24:16,  3.28s/it]
    
    
     17%|█████████████▏                                                                 | 89/532 [08:24<1:03:53,  8.65s/it]
    
    
     17%|█████████████▋                                                                   | 90/532 [08:26<49:35,  6.73s/it]
    
    
     17%|█████████████▊                                                                   | 91/532 [08:29<40:18,  5.48s/it]
    
    
     17%|██████████████▏                                                                  | 93/532 [08:40<40:21,  5.52s/it]
    
    
     18%|█████████████▉                                                                 | 94/532 [09:07<1:27:02, 11.92s/it]
    
    
     18%|██████████████                                                                 | 95/532 [09:09<1:05:45,  9.03s/it]
    
    
     18%|██████████████▌                                                                  | 96/532 [09:10<48:39,  6.70s/it]
    
    
     18%|██████████████▊                                                                  | 97/532 [09:11<36:32,  5.04s/it]
    
    
     18%|██████████████▉                                                                  | 98/532 [09:13<28:06,  3.89s/it]
    
    
     19%|███████████████                                                                  | 99/532 [09:14<22:34,  3.13s/it]
    
    
     19%|███████████████                                                                 | 100/532 [09:16<19:20,  2.69s/it]
    
    
     19%|███████████████▏                                                                | 101/532 [09:18<18:28,  2.57s/it]
    
    
     19%|███████████████▎                                                                | 102/532 [09:21<18:34,  2.59s/it]
    
    
     19%|███████████████▍                                                                | 103/532 [09:22<15:51,  2.22s/it]
    
    
     20%|███████████████▋                                                                | 104/532 [09:26<19:58,  2.80s/it]
    
    
     20%|███████████████▊                                                                | 105/532 [09:30<21:57,  3.09s/it]
    
    
     20%|███████████████▉                                                                | 106/532 [09:30<16:16,  2.29s/it]
    
    
     20%|████████████████                                                                | 107/532 [09:34<19:44,  2.79s/it]
    
    
     20%|████████████████▏                                                               | 108/532 [09:35<14:47,  2.09s/it]
    
    
     20%|████████████████▍                                                               | 109/532 [09:36<13:46,  1.95s/it]
    
    
     21%|████████████████▌                                                               | 110/532 [09:38<12:49,  1.82s/it]
    
    
     21%|████████████████▎                                                             | 111/532 [10:08<1:12:06, 10.28s/it]
    
    
     21%|████████████████▍                                                             | 112/532 [11:11<3:02:21, 26.05s/it]
    
    
     21%|████████████████▌                                                             | 113/532 [11:23<2:34:05, 22.06s/it]
    
    
     21%|████████████████▋                                                             | 114/532 [11:59<3:02:46, 26.24s/it]
    
    
     22%|████████████████▊                                                             | 115/532 [12:01<2:11:18, 18.89s/it]
    
    
     22%|█████████████████                                                             | 116/532 [12:04<1:37:39, 14.08s/it]
    
    
     22%|█████████████████▏                                                            | 117/532 [12:11<1:22:28, 11.92s/it]
    
    
     22%|█████████████████▎                                                            | 118/532 [12:16<1:08:30,  9.93s/it]
    
    
     22%|█████████████████▉                                                              | 119/532 [12:20<55:23,  8.05s/it]
    
    
     23%|██████████████████                                                              | 120/532 [12:22<44:09,  6.43s/it]
    
    
     23%|██████████████████▏                                                             | 121/532 [12:28<42:43,  6.24s/it]
    
    
     23%|██████████████████▎                                                             | 122/532 [12:30<32:21,  4.74s/it]
    
    
     23%|██████████████████▍                                                             | 123/532 [12:34<31:06,  4.56s/it]
    
    
     23%|██████████████████▋                                                             | 124/532 [12:38<30:51,  4.54s/it]
    
    
     23%|██████████████████▊                                                             | 125/532 [12:39<23:51,  3.52s/it]
    
    
     24%|██████████████████▉                                                             | 126/532 [12:55<48:48,  7.21s/it]
    
    
     24%|███████████████████                                                             | 127/532 [12:57<36:59,  5.48s/it]
    
    
     24%|███████████████████▏                                                            | 128/532 [12:58<28:51,  4.29s/it]
    
    
     24%|███████████████████▍                                                            | 129/532 [13:10<43:52,  6.53s/it]
    
    
     24%|███████████████████▌                                                            | 130/532 [13:23<57:28,  8.58s/it]
    
    
     25%|███████████████████▏                                                          | 131/532 [16:08<6:11:14, 55.55s/it]
    
    
     25%|███████████████████▎                                                          | 132/532 [16:10<4:23:23, 39.51s/it]
    
    
     25%|███████████████████                                                         | 133/532 [23:28<17:37:04, 158.96s/it]
    
    
     25%|███████████████████▏                                                        | 134/532 [23:34<12:30:33, 113.15s/it]
    
    
     25%|███████████████████▊                                                          | 135/532 [23:36<8:47:48, 79.77s/it]
    
    
     26%|███████████████████▉                                                          | 136/532 [23:41<6:18:22, 57.33s/it]
    
    
     26%|████████████████████                                                          | 137/532 [23:44<4:29:30, 40.94s/it]
    
    
     26%|████████████████████▏                                                         | 138/532 [23:45<3:09:30, 28.86s/it]
    
    
     26%|████████████████████▍                                                         | 139/532 [23:49<2:20:16, 21.42s/it]
    
    
     26%|████████████████████▌                                                         | 140/532 [23:50<1:41:06, 15.48s/it]
    
    
     27%|████████████████████▋                                                         | 141/532 [24:15<1:58:20, 18.16s/it]
    
    
     27%|████████████████████▊                                                         | 142/532 [24:22<1:37:08, 14.94s/it]
    
    
     27%|████████████████████▉                                                         | 143/532 [24:29<1:20:27, 12.41s/it]
    
    
     27%|█████████████████████                                                         | 144/532 [25:27<2:49:54, 26.28s/it]
    
    
     27%|█████████████████████▎                                                        | 145/532 [25:28<2:00:51, 18.74s/it]
    
    
     27%|█████████████████████▍                                                        | 146/532 [26:57<4:16:02, 39.80s/it]
    
    
     28%|█████████████████████▌                                                        | 147/532 [27:02<3:07:58, 29.29s/it]
    
    
     28%|█████████████████████▋                                                        | 148/532 [27:10<2:25:33, 22.74s/it]
    
    
     28%|█████████████████████▊                                                        | 149/532 [27:11<1:44:45, 16.41s/it]
    
    
     28%|█████████████████████▉                                                        | 150/532 [27:13<1:16:33, 12.02s/it]
    
    
     28%|██████████████████████▋                                                         | 151/532 [27:16<59:53,  9.43s/it]
    
    
     29%|██████████████████████▊                                                         | 152/532 [27:18<44:56,  7.10s/it]
    
    
     29%|██████████████████████▍                                                       | 153/532 [28:03<1:56:53, 18.50s/it]
    
    
     29%|██████████████████████▌                                                       | 154/532 [28:06<1:26:10, 13.68s/it]
    
    
     29%|██████████████████████▋                                                       | 155/532 [28:19<1:24:46, 13.49s/it]
    
    
     29%|██████████████████████▊                                                       | 156/532 [28:20<1:02:26,  9.96s/it]
    
    
     30%|███████████████████████                                                       | 157/532 [28:34<1:09:20, 11.10s/it]
    
    
     30%|███████████████████████▊                                                        | 158/532 [28:37<53:51,  8.64s/it]
    
    
     30%|███████████████████████▉                                                        | 159/532 [28:40<42:52,  6.90s/it]
    
    
     30%|████████████████████████                                                        | 160/532 [28:43<35:25,  5.71s/it]
    
    
     30%|████████████████████████▏                                                       | 161/532 [28:44<27:07,  4.39s/it]
    
    
     30%|████████████████████████▎                                                       | 162/532 [28:50<29:37,  4.80s/it]
    
    
     31%|████████████████████████▌                                                       | 163/532 [28:51<22:05,  3.59s/it]
    
    
     31%|████████████████████████▋                                                       | 164/532 [28:55<23:20,  3.81s/it]
    
    
     31%|████████████████████████▏                                                     | 165/532 [29:30<1:21:13, 13.28s/it]
    
    
     31%|████████████████████████▎                                                     | 166/532 [29:46<1:25:29, 14.01s/it]
    
    
     31%|████████████████████████▍                                                     | 167/532 [29:48<1:03:25, 10.43s/it]
    
    
     32%|█████████████████████████▎                                                      | 168/532 [29:49<45:52,  7.56s/it]
    
    
     32%|█████████████████████████▍                                                      | 169/532 [29:50<33:50,  5.59s/it]
    
    
     32%|████████████████████████▉                                                     | 170/532 [31:05<2:39:22, 26.42s/it]
    
    
     32%|█████████████████████████                                                     | 171/532 [32:12<3:52:45, 38.69s/it]
    
    
     32%|█████████████████████████▏                                                    | 172/532 [32:14<2:46:15, 27.71s/it]
    
    
     33%|█████████████████████████▎                                                    | 173/532 [32:15<1:57:36, 19.66s/it]
    
    
     33%|█████████████████████████▌                                                    | 174/532 [32:18<1:26:45, 14.54s/it]
    
    
     33%|█████████████████████████▋                                                    | 175/532 [32:21<1:06:37, 11.20s/it]
    
    
     33%|█████████████████████████▊                                                    | 176/532 [33:08<2:10:37, 22.02s/it]
    
    
     33%|█████████████████████████▉                                                    | 177/532 [36:49<8:02:19, 81.52s/it]
    
    
     33%|██████████████████████████                                                    | 178/532 [36:50<5:38:23, 57.35s/it]
    
    
     34%|██████████████████████████▏                                                   | 179/532 [36:51<3:58:54, 40.61s/it]
    
    
     34%|██████████████████████████▍                                                   | 180/532 [36:53<2:49:30, 28.89s/it]
    
    
     34%|██████████████████████████▌                                                   | 181/532 [36:54<2:00:28, 20.59s/it]
    
    
     34%|██████████████████████████▋                                                   | 182/532 [37:03<1:40:26, 17.22s/it]
    
    
     34%|██████████████████████████▊                                                   | 183/532 [37:22<1:41:36, 17.47s/it]
    
    
     35%|██████████████████████████▉                                                   | 184/532 [37:23<1:13:55, 12.75s/it]
    
    
     35%|███████████████████████████▊                                                    | 185/532 [37:26<56:28,  9.77s/it]
    
    
     35%|███████████████████████████▉                                                    | 186/532 [37:27<41:45,  7.24s/it]
    
    
     35%|████████████████████████████                                                    | 187/532 [37:35<42:09,  7.33s/it]
    
    
     35%|████████████████████████████▎                                                   | 188/532 [37:36<31:24,  5.48s/it]
    
    
     36%|████████████████████████████▍                                                   | 189/532 [37:37<23:19,  4.08s/it]
    
    
     36%|███████████████████████████▊                                                  | 190/532 [38:08<1:10:00, 12.28s/it]
    
    
     36%|████████████████████████████▋                                                   | 191/532 [38:09<50:16,  8.85s/it]
    
    
     36%|████████████████████████████▊                                                   | 192/532 [38:18<49:16,  8.70s/it]
    
    
     36%|█████████████████████████████                                                   | 193/532 [38:18<35:07,  6.22s/it]
    
    
     36%|█████████████████████████████▏                                                  | 194/532 [38:20<27:40,  4.91s/it]
    
    
     37%|█████████████████████████████▎                                                  | 195/532 [38:22<23:17,  4.15s/it]
    
    
     37%|█████████████████████████████▍                                                  | 196/532 [38:25<20:32,  3.67s/it]
    
    
     37%|█████████████████████████████▌                                                  | 197/532 [38:39<38:42,  6.93s/it]
    
    
     37%|█████████████████████████████▊                                                  | 198/532 [38:43<33:58,  6.10s/it]
    
    
     37%|█████████████████████████████▉                                                  | 199/532 [38:53<39:07,  7.05s/it]
    
    
     38%|██████████████████████████████▏                                                 | 201/532 [39:07<39:24,  7.14s/it]
    
    
     38%|██████████████████████████████▍                                                 | 202/532 [39:20<47:33,  8.65s/it]
    
    
     38%|█████████████████████████████                                               | 203/532 [46:07<11:42:36, 128.13s/it]
    
    
     38%|█████████████████████████████▏                                              | 204/532 [47:45<10:51:31, 119.18s/it]
    
    
     39%|██████████████████████████████                                                | 205/532 [47:47<7:37:42, 83.98s/it]
    
    
     39%|██████████████████████████████▏                                               | 206/532 [47:48<5:21:17, 59.13s/it]
    
    
     39%|██████████████████████████████▎                                               | 207/532 [47:48<3:45:01, 41.54s/it]
    
    
     39%|██████████████████████████████▍                                               | 208/532 [47:49<2:38:10, 29.29s/it]
    
    
     39%|██████████████████████████████▋                                               | 209/532 [47:51<1:52:53, 20.97s/it]
    
    
     39%|██████████████████████████████▊                                               | 210/532 [49:01<3:12:05, 35.79s/it]
    
    
     40%|██████████████████████████████▉                                               | 211/532 [49:01<2:14:39, 25.17s/it]
    
    
     40%|███████████████████████████████                                               | 212/532 [49:03<1:36:52, 18.16s/it]
    
    
     40%|███████████████████████████████▏                                              | 213/532 [49:07<1:13:16, 13.78s/it]
    
    
     40%|███████████████████████████████▍                                              | 214/532 [49:37<1:38:40, 18.62s/it]
    
    
     40%|███████████████████████████████▌                                              | 215/532 [49:38<1:10:43, 13.39s/it]
    
    
     41%|████████████████████████████████▍                                               | 216/532 [49:40<52:44, 10.01s/it]
    
    
     41%|████████████████████████████████▋                                               | 217/532 [49:44<43:30,  8.29s/it]
    
    
     41%|████████████████████████████████▊                                               | 218/532 [49:45<31:55,  6.10s/it]
    
    
     41%|████████████████████████████████▉                                               | 219/532 [49:47<25:48,  4.95s/it]
    
    
     41%|█████████████████████████████████                                               | 220/532 [49:49<20:09,  3.88s/it]
    
    
     42%|█████████████████████████████████▏                                              | 221/532 [49:49<14:44,  2.85s/it]
    
    
     42%|█████████████████████████████████▍                                              | 222/532 [49:51<13:38,  2.64s/it]
    
    
     42%|█████████████████████████████████▌                                              | 223/532 [49:54<13:07,  2.55s/it]
    
    
     42%|█████████████████████████████████▋                                              | 224/532 [49:55<10:19,  2.01s/it]
    
    
     42%|█████████████████████████████████▊                                              | 225/532 [50:01<17:06,  3.34s/it]
    
    
     42%|█████████████████████████████████▉                                              | 226/532 [50:03<15:09,  2.97s/it]
    
    
     43%|█████████████████████████████████▎                                            | 227/532 [54:41<7:14:38, 85.50s/it]
    
    
     43%|█████████████████████████████████▍                                            | 228/532 [54:42<5:04:07, 60.03s/it]
    
    
     43%|█████████████████████████████████▌                                            | 229/532 [54:48<3:41:39, 43.89s/it]
    
    
     43%|█████████████████████████████████▋                                            | 230/532 [54:50<2:37:15, 31.24s/it]
    
    
     43%|█████████████████████████████████▊                                            | 231/532 [54:52<1:53:41, 22.66s/it]
    
    
     44%|██████████████████████████████████                                            | 232/532 [54:59<1:28:43, 17.74s/it]
    
    
     44%|██████████████████████████████████▏                                           | 233/532 [55:09<1:17:46, 15.61s/it]
    
    
     44%|███████████████████████████████████▏                                            | 234/532 [55:12<57:42, 11.62s/it]
    
    
     44%|███████████████████████████████████▎                                            | 235/532 [55:16<46:13,  9.34s/it]
    
    
     44%|███████████████████████████████████▍                                            | 236/532 [55:18<35:11,  7.13s/it]
    
    
     45%|███████████████████████████████████▋                                            | 237/532 [55:18<25:22,  5.16s/it]
    
    
     45%|███████████████████████████████████▊                                            | 238/532 [55:19<18:55,  3.86s/it]
    
    
     45%|███████████████████████████████████▉                                            | 239/532 [55:21<15:34,  3.19s/it]
    
    
     45%|████████████████████████████████████                                            | 240/532 [55:22<13:17,  2.73s/it]
    
    
     45%|████████████████████████████████████▏                                           | 241/532 [55:27<16:51,  3.48s/it]
    
    
     45%|████████████████████████████████████▍                                           | 242/532 [55:30<15:44,  3.26s/it]
    
    
     46%|████████████████████████████████████▌                                           | 243/532 [55:32<14:04,  2.92s/it]
    
    
     46%|████████████████████████████████████▋                                           | 244/532 [55:37<16:29,  3.44s/it]
    
    
     46%|████████████████████████████████████▊                                           | 245/532 [55:43<19:48,  4.14s/it]
    
    
     46%|████████████████████████████████████▉                                           | 246/532 [56:06<47:02,  9.87s/it]
    
    
     46%|█████████████████████████████████████▏                                          | 247/532 [56:12<41:15,  8.69s/it]
    
    
     47%|█████████████████████████████████████▎                                          | 248/532 [56:15<33:08,  7.00s/it]
    
    
     47%|█████████████████████████████████████▍                                          | 249/532 [56:18<27:57,  5.93s/it]
    
    
     47%|█████████████████████████████████████▌                                          | 250/532 [56:30<35:54,  7.64s/it]
    
    
     47%|█████████████████████████████████████▋                                          | 251/532 [56:43<43:18,  9.25s/it]
    
    
     47%|█████████████████████████████████████▉                                          | 252/532 [56:44<31:29,  6.75s/it]
    
    
     48%|██████████████████████████████████████                                          | 253/532 [57:00<43:46,  9.41s/it]
    
    
     48%|██████████████████████████████████████▏                                         | 254/532 [57:01<32:21,  6.98s/it]
    
    
     48%|██████████████████████████████████████▎                                         | 255/532 [57:08<32:51,  7.12s/it]
    
    
     48%|██████████████████████████████████████▍                                         | 256/532 [57:11<26:41,  5.80s/it]
    
    
     48%|██████████████████████████████████████▋                                         | 257/532 [57:27<40:12,  8.77s/it]
    
    
     48%|██████████████████████████████████████▊                                         | 258/532 [57:31<33:23,  7.31s/it]
    
    
     49%|██████████████████████████████████████▉                                         | 259/532 [57:32<25:13,  5.54s/it]
    
    
     49%|██████████████████████████████████████                                        | 260/532 [58:37<1:45:49, 23.34s/it]
    
    
     49%|██████████████████████████████████████▎                                       | 261/532 [58:39<1:16:10, 16.87s/it]
    
    
     49%|███████████████████████████████████████▍                                        | 262/532 [58:40<55:09, 12.26s/it]
    
    
     49%|███████████████████████████████████████▌                                        | 263/532 [58:45<44:16,  9.88s/it]
    
    
     50%|███████████████████████████████████████▋                                        | 264/532 [58:46<32:44,  7.33s/it]
    
    
     50%|███████████████████████████████████████▊                                        | 265/532 [59:04<46:25, 10.43s/it]
    
    
     50%|████████████████████████████████████████                                        | 266/532 [59:05<33:56,  7.66s/it]
    
    
     50%|████████████████████████████████████████▏                                       | 267/532 [59:09<28:52,  6.54s/it]
    
    
     50%|████████████████████████████████████████▎                                       | 268/532 [59:10<22:03,  5.01s/it]
    
    
     51%|████████████████████████████████████████▍                                       | 269/532 [59:30<41:15,  9.41s/it]
    
    
     51%|████████████████████████████████████████▌                                       | 270/532 [59:54<59:43, 13.68s/it]
    
    
     51%|████████████████████████████████████████▊                                       | 271/532 [59:55<43:56, 10.10s/it]
    
    
     51%|████████████████████████████████████████▉                                       | 272/532 [59:57<32:40,  7.54s/it]
    
    
     51%|█████████████████████████████████████████                                       | 273/532 [59:58<23:56,  5.55s/it]
    
    
     52%|████████████████████████████████████████▏                                     | 274/532 [1:00:00<19:28,  4.53s/it]
    
    
     52%|████████████████████████████████████████▎                                     | 275/532 [1:00:12<28:43,  6.71s/it]
    
    
     52%|████████████████████████████████████████▍                                     | 276/532 [1:00:16<24:58,  5.85s/it]
    
    
     52%|████████████████████████████████████████▌                                     | 277/532 [1:00:21<23:50,  5.61s/it]
    
    
     52%|████████████████████████████████████████▊                                     | 278/532 [1:00:23<20:06,  4.75s/it]
    
    
     52%|████████████████████████████████████████▉                                     | 279/532 [1:00:31<23:16,  5.52s/it]
    
    
     53%|█████████████████████████████████████████                                     | 280/532 [1:00:33<19:13,  4.58s/it]
    
    
     53%|████████████████████████████████████████▏                                   | 281/532 [1:01:38<1:35:13, 22.76s/it]
    
    
     53%|████████████████████████████████████████▎                                   | 282/532 [1:01:47<1:17:56, 18.71s/it]
    
    
     53%|█████████████████████████████████████████▍                                    | 283/532 [1:01:49<55:54, 13.47s/it]
    
    
     53%|█████████████████████████████████████████▋                                    | 284/532 [1:01:50<40:49,  9.88s/it]
    
    
     54%|█████████████████████████████████████████▊                                    | 285/532 [1:02:04<45:18, 11.01s/it]
    
    
     54%|████████████████████████████████████████▊                                   | 286/532 [1:02:59<1:39:20, 24.23s/it]
    
    
     54%|█████████████████████████████████████████                                   | 287/532 [1:03:18<1:32:18, 22.61s/it]
    
    
     54%|█████████████████████████████████████████▏                                  | 288/532 [1:03:20<1:06:43, 16.41s/it]
    
    
     54%|██████████████████████████████████████████▎                                   | 289/532 [1:03:21<48:08, 11.89s/it]
    
    
     55%|██████████████████████████████████████████▌                                   | 290/532 [1:03:24<36:37,  9.08s/it]
    
    
     55%|█████████████████████████████████████████▌                                  | 291/532 [1:03:56<1:05:12, 16.23s/it]
    
    
     55%|██████████████████████████████████████████▊                                   | 292/532 [1:04:03<53:28, 13.37s/it]
    
    
     55%|██████████████████████████████████████████▉                                   | 293/532 [1:04:04<38:24,  9.64s/it]
    
    
     55%|███████████████████████████████████████████                                   | 294/532 [1:04:07<30:04,  7.58s/it]
    
    
     55%|███████████████████████████████████████████▎                                  | 295/532 [1:04:35<53:59, 13.67s/it]
    
    
     56%|███████████████████████████████████████████▍                                  | 296/532 [1:04:43<47:55, 12.18s/it]
    
    
     56%|███████████████████████████████████████████▌                                  | 297/532 [1:04:46<36:16,  9.26s/it]
    
    
     56%|███████████████████████████████████████████▋                                  | 298/532 [1:04:48<27:56,  7.16s/it]
    
    
     56%|███████████████████████████████████████████▊                                  | 299/532 [1:04:51<23:05,  5.95s/it]
    
    
     56%|███████████████████████████████████████████▉                                  | 300/532 [1:04:53<18:07,  4.69s/it]
    
    
     57%|████████████████████████████████████████████▏                                 | 301/532 [1:05:09<30:55,  8.03s/it]
    
    
     57%|████████████████████████████████████████████▎                                 | 302/532 [1:05:11<23:48,  6.21s/it]
    
    
     57%|████████████████████████████████████████████▍                                 | 303/532 [1:05:12<17:56,  4.70s/it]
    
    
     57%|████████████████████████████████████████████▌                                 | 304/532 [1:05:21<22:41,  5.97s/it]
    
    
     57%|███████████████████████████████████████████▌                                | 305/532 [1:06:02<1:02:14, 16.45s/it]
    
    
     58%|███████████████████████████████████████████▋                                | 306/532 [1:06:56<1:44:14, 27.67s/it]
    
    
     58%|███████████████████████████████████████████▊                                | 307/532 [1:07:22<1:42:22, 27.30s/it]
    
    
     58%|████████████████████████████████████████████                                | 308/532 [1:07:24<1:13:21, 19.65s/it]
    
    
     58%|████████████████████████████████████████████▏                               | 309/532 [1:07:41<1:10:06, 18.86s/it]
    
    
     58%|█████████████████████████████████████████████▌                                | 311/532 [1:07:42<49:26, 13.42s/it]
    
    
     59%|█████████████████████████████████████████████▋                                | 312/532 [1:07:45<36:53, 10.06s/it]
    
    
     59%|█████████████████████████████████████████████▉                                | 313/532 [1:07:58<40:21, 11.06s/it]
    
    
     59%|████████████████████████████████████████████▊                               | 314/532 [1:08:44<1:18:05, 21.49s/it]
    
    
     59%|██████████████████████████████████████████████▏                               | 315/532 [1:08:48<58:43, 16.24s/it]
    
    
     59%|██████████████████████████████████████████████▎                               | 316/532 [1:08:57<51:04, 14.19s/it]
    
    
     60%|██████████████████████████████████████████████▍                               | 317/532 [1:08:58<35:53, 10.02s/it]
    
    
     60%|██████████████████████████████████████████████▌                               | 318/532 [1:09:01<29:03,  8.15s/it]
    
    
     60%|██████████████████████████████████████████████▊                               | 319/532 [1:09:03<21:47,  6.14s/it]
    
    
     60%|██████████████████████████████████████████████▉                               | 320/532 [1:09:21<34:45,  9.84s/it]
    
    
     60%|███████████████████████████████████████████████                               | 321/532 [1:09:22<24:38,  7.01s/it]
    
    
     61%|███████████████████████████████████████████████▏                              | 322/532 [1:09:40<36:26, 10.41s/it]
    
    
     61%|███████████████████████████████████████████████▎                              | 323/532 [1:09:47<33:07,  9.51s/it]
    
    
     61%|███████████████████████████████████████████████▌                              | 324/532 [1:09:53<28:37,  8.26s/it]
    
    
     61%|███████████████████████████████████████████████▋                              | 325/532 [1:09:55<22:22,  6.48s/it]
    
    
     61%|███████████████████████████████████████████████▊                              | 326/532 [1:10:05<25:28,  7.42s/it]
    
    
     61%|███████████████████████████████████████████████▉                              | 327/532 [1:10:06<19:00,  5.56s/it]
    
    
     62%|████████████████████████████████████████████████                              | 328/532 [1:10:08<15:51,  4.67s/it]
    
    
     62%|████████████████████████████████████████████████▏                             | 329/532 [1:10:11<13:34,  4.01s/it]
    
    
     62%|████████████████████████████████████████████████▍                             | 330/532 [1:10:23<21:47,  6.47s/it]
    
    
     62%|████████████████████████████████████████████████▌                             | 331/532 [1:10:25<16:33,  4.94s/it]
    
    
     62%|████████████████████████████████████████████████▋                             | 332/532 [1:10:26<12:40,  3.80s/it]
    
    
     63%|████████████████████████████████████████████████▊                             | 333/532 [1:10:28<10:49,  3.26s/it]
    
    
     63%|████████████████████████████████████████████████▉                             | 334/532 [1:10:30<09:29,  2.88s/it]
    
    
     63%|█████████████████████████████████████████████████                             | 335/532 [1:10:32<09:16,  2.82s/it]
    
    
     63%|█████████████████████████████████████████████████▎                            | 336/532 [1:10:34<07:43,  2.37s/it]
    
    
     63%|█████████████████████████████████████████████████▍                            | 337/532 [1:10:54<25:09,  7.74s/it]
    
    
     64%|█████████████████████████████████████████████████▌                            | 338/532 [1:10:55<18:37,  5.76s/it]
    
    
     64%|█████████████████████████████████████████████████▋                            | 339/532 [1:11:30<46:57, 14.60s/it]
    
    
     64%|█████████████████████████████████████████████████▊                            | 340/532 [1:11:33<34:56, 10.92s/it]
    
    
     64%|█████████████████████████████████████████████████▉                            | 341/532 [1:11:34<25:39,  8.06s/it]
    
    
     64%|██████████████████████████████████████████████████▏                           | 342/532 [1:11:39<22:21,  7.06s/it]
    
    
     64%|██████████████████████████████████████████████████▎                           | 343/532 [1:11:41<17:29,  5.55s/it]
    
    
     65%|██████████████████████████████████████████████████▌                           | 345/532 [1:11:42<12:28,  4.00s/it]
    
    
     65%|██████████████████████████████████████████████████▋                           | 346/532 [1:11:43<10:20,  3.33s/it]
    
    
     65%|██████████████████████████████████████████████████▉                           | 347/532 [1:11:55<17:55,  5.81s/it]
    
    
     65%|███████████████████████████████████████████████████                           | 348/532 [1:11:58<15:24,  5.02s/it]
    
    
     66%|███████████████████████████████████████████████████▏                          | 349/532 [1:12:14<25:35,  8.39s/it]
    
    
     66%|███████████████████████████████████████████████████▎                          | 350/532 [1:12:22<24:46,  8.17s/it]
    
    
     66%|███████████████████████████████████████████████████▍                          | 351/532 [1:12:24<18:54,  6.27s/it]
    
    
     66%|███████████████████████████████████████████████████▌                          | 352/532 [1:12:25<13:49,  4.61s/it]
    
    
     66%|███████████████████████████████████████████████████▊                          | 353/532 [1:12:27<11:40,  3.91s/it]
    
    
     67%|███████████████████████████████████████████████████▉                          | 354/532 [1:12:32<13:04,  4.41s/it]
    
    
     67%|████████████████████████████████████████████████████                          | 355/532 [1:12:34<10:13,  3.47s/it]
    
    
     67%|████████████████████████████████████████████████████▏                         | 356/532 [1:12:35<08:38,  2.95s/it]
    
    
     67%|████████████████████████████████████████████████████▎                         | 357/532 [1:12:41<10:46,  3.69s/it]
    
    
     67%|████████████████████████████████████████████████████▍                         | 358/532 [1:12:44<09:51,  3.40s/it]
    
    
     67%|████████████████████████████████████████████████████▋                         | 359/532 [1:12:45<07:39,  2.65s/it]
    
    
     68%|████████████████████████████████████████████████████▊                         | 360/532 [1:12:47<07:07,  2.49s/it]
    
    
     68%|████████████████████████████████████████████████████▉                         | 361/532 [1:13:05<20:37,  7.24s/it]
    
    
     68%|█████████████████████████████████████████████████████                         | 362/532 [1:13:11<19:19,  6.82s/it]
    
    
     68%|█████████████████████████████████████████████████████▏                        | 363/532 [1:13:11<13:46,  4.89s/it]
    
    
     68%|█████████████████████████████████████████████████████▎                        | 364/532 [1:13:20<17:13,  6.15s/it]
    
    
     69%|█████████████████████████████████████████████████████▌                        | 365/532 [1:13:22<13:04,  4.70s/it]
    
    
     69%|█████████████████████████████████████████████████████▋                        | 366/532 [1:13:24<11:13,  4.06s/it]
    
    
     69%|█████████████████████████████████████████████████████▊                        | 367/532 [1:13:25<08:41,  3.16s/it]
    
    
     69%|█████████████████████████████████████████████████████▉                        | 368/532 [1:13:27<07:44,  2.83s/it]
    
    
     69%|████████████████████████████████████████████████████                       | 369/532 [1:23:26<8:13:06, 181.51s/it]
    
    
     70%|████████████████████████████████████████████████████▏                      | 370/532 [1:23:27<5:44:18, 127.52s/it]
    
    
     70%|████████████████████████████████████████████████████▉                       | 371/532 [1:23:32<4:03:41, 90.82s/it]
    
    
     70%|█████████████████████████████████████████████████████▏                      | 372/532 [1:23:34<2:50:43, 64.02s/it]
    
    
     70%|█████████████████████████████████████████████████████▎                      | 373/532 [1:23:45<2:07:41, 48.18s/it]
    
    
     70%|█████████████████████████████████████████████████████▍                      | 374/532 [1:24:27<2:02:15, 46.43s/it]
    
    
     70%|█████████████████████████████████████████████████████▌                      | 375/532 [1:24:30<1:26:57, 33.23s/it]
    
    
     71%|█████████████████████████████████████████████████████▋                      | 376/532 [1:24:31<1:01:12, 23.54s/it]
    
    
     71%|███████████████████████████████████████████████████████▎                      | 377/532 [1:24:34<45:06, 17.46s/it]
    
    
     71%|███████████████████████████████████████████████████████▍                      | 378/532 [1:24:36<32:41, 12.74s/it]
    
    
     71%|██████████████████████████████████████████████████████▏                     | 379/532 [1:29:11<3:52:54, 91.33s/it]
    
    
     71%|██████████████████████████████████████████████████████▎                     | 380/532 [1:29:23<2:51:16, 67.61s/it]
    
    
     72%|██████████████████████████████████████████████████████▍                     | 381/532 [1:29:24<2:00:10, 47.75s/it]
    
    
     72%|██████████████████████████████████████████████████████▌                     | 382/532 [1:29:26<1:24:34, 33.83s/it]
    
    
     72%|██████████████████████████████████████████████████████▋                     | 383/532 [1:29:28<1:00:55, 24.53s/it]
    
    
     72%|██████████████████████████████████████████████████████▊                     | 384/532 [1:30:08<1:11:55, 29.16s/it]
    
    
     72%|████████████████████████████████████████████████████████▍                     | 385/532 [1:30:11<51:59, 21.22s/it]
    
    
     73%|████████████████████████████████████████████████████████▌                     | 386/532 [1:30:16<39:33, 16.26s/it]
    
    
     73%|████████████████████████████████████████████████████████▋                     | 387/532 [1:30:16<27:55, 11.56s/it]
    
    
     73%|████████████████████████████████████████████████████████▉                     | 388/532 [1:30:22<23:11,  9.66s/it]
    
    
     73%|█████████████████████████████████████████████████████████                     | 389/532 [1:30:24<17:47,  7.46s/it]
    
    
     73%|█████████████████████████████████████████████████████████▏                    | 390/532 [1:30:25<13:12,  5.58s/it]
    
    
     73%|█████████████████████████████████████████████████████████▎                    | 391/532 [1:30:28<11:23,  4.84s/it]
    
    
     74%|█████████████████████████████████████████████████████████▍                    | 392/532 [1:30:30<09:11,  3.94s/it]
    
    
     74%|█████████████████████████████████████████████████████████▌                    | 393/532 [1:30:39<12:38,  5.45s/it]
    
    
     74%|█████████████████████████████████████████████████████████▊                    | 394/532 [1:30:40<09:18,  4.05s/it]
    
    
     74%|█████████████████████████████████████████████████████████▉                    | 395/532 [1:30:50<13:27,  5.89s/it]
    
    
     74%|██████████████████████████████████████████████████████████                    | 396/532 [1:30:52<10:31,  4.64s/it]
    
    
     75%|██████████████████████████████████████████████████████████▏                   | 397/532 [1:30:53<07:52,  3.50s/it]
    
    
     75%|██████████████████████████████████████████████████████████▎                   | 398/532 [1:31:56<48:05, 21.53s/it]
    
    
     75%|██████████████████████████████████████████████████████████▌                   | 399/532 [1:31:57<33:55, 15.31s/it]
    
    
     75%|██████████████████████████████████████████████████████████▋                   | 400/532 [1:31:58<24:22, 11.08s/it]
    
    
     75%|██████████████████████████████████████████████████████████▊                   | 401/532 [1:32:00<17:51,  8.18s/it]
    
    
     76%|██████████████████████████████████████████████████████████▉                   | 402/532 [1:32:03<14:50,  6.85s/it]
    
    
     76%|███████████████████████████████████████████████████████████                   | 403/532 [1:32:05<11:04,  5.15s/it]
    
    
     76%|███████████████████████████████████████████████████████████▏                  | 404/532 [1:33:19<55:27, 26.00s/it]
    
    
     76%|███████████████████████████████████████████████████████████▍                  | 405/532 [1:33:23<40:43, 19.24s/it]
    
    
     76%|███████████████████████████████████████████████████████████▌                  | 406/532 [1:33:26<30:06, 14.33s/it]
    
    
     77%|███████████████████████████████████████████████████████████▋                  | 407/532 [1:33:28<22:18, 10.71s/it]
    
    
     77%|███████████████████████████████████████████████████████████▊                  | 408/532 [1:34:32<55:37, 26.91s/it]
    
    
     77%|███████████████████████████████████████████████████████████▉                  | 409/532 [1:34:37<41:26, 20.22s/it]
    
    
     77%|████████████████████████████████████████████████████████████                  | 410/532 [1:34:38<29:24, 14.46s/it]
    
    
     77%|████████████████████████████████████████████████████████████▎                 | 411/532 [1:34:51<28:12, 13.99s/it]
    
    
     77%|████████████████████████████████████████████████████████████▍                 | 412/532 [1:34:55<21:41, 10.84s/it]
    
    
     78%|████████████████████████████████████████████████████████████▌                 | 413/532 [1:34:56<15:54,  8.02s/it]
    
    
     78%|████████████████████████████████████████████████████████████▋                 | 414/532 [1:35:23<27:09, 13.81s/it]
    
    
     78%|████████████████████████████████████████████████████████████▊                 | 415/532 [1:35:25<19:52, 10.20s/it]
    
    
     78%|████████████████████████████████████████████████████████████▉                 | 416/532 [1:35:28<15:23,  7.96s/it]
    
    
     78%|█████████████████████████████████████████████████████████████▏                | 417/532 [1:35:28<10:49,  5.65s/it]
    
    
     79%|█████████████████████████████████████████████████████████████▎                | 418/532 [1:35:29<08:13,  4.33s/it]
    
    
     79%|███████████████████████████████████████████████████████████▊                | 419/532 [1:38:39<1:52:43, 59.86s/it]
    
    
     79%|████████████████████████████████████████████████████████████                | 420/532 [1:38:41<1:19:31, 42.61s/it]
    
    
     79%|█████████████████████████████████████████████████████████████▋                | 421/532 [1:38:43<56:06, 30.33s/it]
    
    
     79%|█████████████████████████████████████████████████████████████▊                | 422/532 [1:38:43<39:09, 21.36s/it]
    
    
     80%|██████████████████████████████████████████████████████████████                | 423/532 [1:38:46<28:53, 15.91s/it]
    
    
     80%|██████████████████████████████████████████████████████████████▏               | 424/532 [1:38:48<20:46, 11.54s/it]
    
    
     80%|██████████████████████████████████████████████████████████████▎               | 425/532 [1:38:49<14:56,  8.38s/it]
    
    
     80%|██████████████████████████████████████████████████████████████▌               | 427/532 [1:39:05<14:26,  8.26s/it]
    
    
     80%|██████████████████████████████████████████████████████████████▊               | 428/532 [1:39:06<10:37,  6.13s/it]
    
    
     81%|██████████████████████████████████████████████████████████████▉               | 429/532 [1:39:18<13:35,  7.92s/it]
    
    
     81%|███████████████████████████████████████████████████████████████               | 430/532 [1:39:20<10:26,  6.14s/it]
    
    
     81%|███████████████████████████████████████████████████████████████▏              | 431/532 [1:39:30<12:32,  7.45s/it]
    
    
     81%|████████████████████████████████████████████████████████████▉              | 432/532 [1:48:26<4:36:37, 165.97s/it]
    
    
     81%|█████████████████████████████████████████████████████████████              | 433/532 [1:48:32<3:14:46, 118.04s/it]
    
    
     82%|██████████████████████████████████████████████████████████████              | 434/532 [1:48:45<2:21:11, 86.45s/it]
    
    
     82%|██████████████████████████████████████████████████████████████▏             | 435/532 [1:48:48<1:39:08, 61.33s/it]
    
    
     82%|██████████████████████████████████████████████████████████████▎             | 436/532 [1:48:49<1:09:27, 43.41s/it]
    
    
     82%|████████████████████████████████████████████████████████████████              | 437/532 [1:48:52<49:09, 31.05s/it]
    
    
     82%|████████████████████████████████████████████████████████████████▏             | 438/532 [1:48:55<35:32, 22.68s/it]
    
    
     83%|████████████████████████████████████████████████████████████████▎             | 439/532 [1:48:56<25:13, 16.27s/it]
    
    
     83%|██████████████████████████████████████████████████████████████▊             | 440/532 [1:51:01<1:14:49, 48.79s/it]
    
    
     83%|████████████████████████████████████████████████████████████████▋             | 441/532 [1:51:03<52:33, 34.65s/it]
    
    
     83%|████████████████████████████████████████████████████████████████▊             | 442/532 [1:51:15<42:05, 28.06s/it]
    
    
     83%|█████████████████████████████████████████████████████████████████             | 444/532 [1:51:16<28:56, 19.73s/it]
    
    
     84%|█████████████████████████████████████████████████████████████████▏            | 445/532 [1:51:20<21:51, 15.08s/it]
    
    
     84%|█████████████████████████████████████████████████████████████████▍            | 446/532 [1:51:30<19:28, 13.59s/it]
    
    
     84%|█████████████████████████████████████████████████████████████████▌            | 447/532 [1:52:26<37:02, 26.15s/it]
    
    
     84%|█████████████████████████████████████████████████████████████████▋            | 448/532 [1:52:28<26:51, 19.18s/it]
    
    
     84%|█████████████████████████████████████████████████████████████████▊            | 449/532 [1:52:31<19:42, 14.25s/it]
    
    
     85%|█████████████████████████████████████████████████████████████████▉            | 450/532 [1:52:44<18:40, 13.66s/it]
    
    
     85%|██████████████████████████████████████████████████████████████████            | 451/532 [1:54:13<48:57, 36.26s/it]
    
    
     85%|██████████████████████████████████████████████████████████████████▎           | 452/532 [1:54:15<34:59, 26.24s/it]
    
    
     85%|██████████████████████████████████████████████████████████████████▍           | 453/532 [1:54:48<37:07, 28.20s/it]
    
    
     85%|██████████████████████████████████████████████████████████████████▌           | 454/532 [1:54:50<26:13, 20.17s/it]
    
    
     86%|██████████████████████████████████████████████████████████████████▋           | 455/532 [1:54:53<19:27, 15.17s/it]
    
    
     86%|██████████████████████████████████████████████████████████████████▊           | 456/532 [1:54:56<14:28, 11.43s/it]
    
    
     86%|███████████████████████████████████████████████████████████████████           | 457/532 [1:54:56<10:10,  8.13s/it]
    
    
     86%|███████████████████████████████████████████████████████████████████▏          | 458/532 [1:55:08<11:28,  9.30s/it]
    
    
     86%|███████████████████████████████████████████████████████████████████▎          | 459/532 [1:55:09<08:19,  6.85s/it]
    
    
     86%|███████████████████████████████████████████████████████████████████▍          | 460/532 [1:55:14<07:16,  6.07s/it]
    
    
     87%|███████████████████████████████████████████████████████████████████▌          | 461/532 [1:55:45<16:05, 13.60s/it]
    
    
     87%|███████████████████████████████████████████████████████████████████▋          | 462/532 [1:55:46<11:27,  9.83s/it]
    
    
     87%|███████████████████████████████████████████████████████████████████▉          | 463/532 [1:55:49<08:50,  7.69s/it]
    
    
     87%|████████████████████████████████████████████████████████████████████          | 464/532 [1:56:52<27:35, 24.34s/it]
    
    
     87%|████████████████████████████████████████████████████████████████████▏         | 465/532 [1:56:54<19:52, 17.80s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▎         | 466/532 [1:57:27<24:25, 22.20s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▍         | 467/532 [1:57:30<17:49, 16.45s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▌         | 468/532 [1:57:31<12:32, 11.77s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▊         | 469/532 [1:57:31<08:48,  8.40s/it]
    
    
     88%|████████████████████████████████████████████████████████████████████▉         | 470/532 [1:57:36<07:41,  7.44s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████         | 471/532 [1:57:38<05:53,  5.80s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████▏        | 472/532 [1:57:39<04:23,  4.39s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████▎        | 473/532 [1:57:44<04:13,  4.30s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████▍        | 474/532 [1:57:46<03:41,  3.81s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████▋        | 475/532 [1:57:54<04:42,  4.95s/it]
    
    
     89%|█████████████████████████████████████████████████████████████████████▊        | 476/532 [1:57:59<04:43,  5.07s/it]
    
    
     90%|█████████████████████████████████████████████████████████████████████▉        | 477/532 [1:58:02<04:01,  4.39s/it]
    
    
     90%|██████████████████████████████████████████████████████████████████████        | 478/532 [1:58:05<03:39,  4.07s/it]
    
    
     90%|██████████████████████████████████████████████████████████████████████▏       | 479/532 [1:58:26<07:58,  9.03s/it]
    
    
     90%|██████████████████████████████████████████████████████████████████████▍       | 480/532 [1:58:27<05:43,  6.60s/it]
    
    
     90%|██████████████████████████████████████████████████████████████████████▌       | 481/532 [1:58:28<04:20,  5.11s/it]
    
    
     91%|██████████████████████████████████████████████████████████████████████▋       | 482/532 [1:58:47<07:30,  9.02s/it]
    
    
     91%|██████████████████████████████████████████████████████████████████████▊       | 483/532 [1:58:58<08:02,  9.85s/it]
    
    
     91%|██████████████████████████████████████████████████████████████████████▉       | 484/532 [1:59:00<06:01,  7.54s/it]
    
    
     91%|███████████████████████████████████████████████████████████████████████       | 485/532 [1:59:21<08:56, 11.42s/it]
    
    
     91%|███████████████████████████████████████████████████████████████████████▎      | 486/532 [1:59:23<06:41,  8.72s/it]
    
    
     92%|███████████████████████████████████████████████████████████████████████▍      | 487/532 [1:59:24<04:44,  6.31s/it]
    
    
     92%|███████████████████████████████████████████████████████████████████████▌      | 488/532 [1:59:27<03:50,  5.23s/it]
    
    
     92%|███████████████████████████████████████████████████████████████████████▋      | 489/532 [1:59:28<02:59,  4.17s/it]
    
    
     92%|███████████████████████████████████████████████████████████████████████▊      | 490/532 [1:59:32<02:45,  3.94s/it]
    
    
     92%|███████████████████████████████████████████████████████████████████████▉      | 491/532 [1:59:33<02:11,  3.22s/it]
    
    
     92%|████████████████████████████████████████████████████████████████████████▏     | 492/532 [1:59:37<02:08,  3.20s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████████▎     | 493/532 [2:00:26<11:07, 17.12s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████████▍     | 494/532 [2:00:28<07:51, 12.40s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████████▌     | 495/532 [2:00:29<05:42,  9.26s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████████▋     | 496/532 [2:00:32<04:21,  7.27s/it]
    
    
     93%|████████████████████████████████████████████████████████████████████████▊     | 497/532 [2:00:33<03:10,  5.45s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████████     | 498/532 [2:00:37<02:44,  4.84s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████████▏    | 499/532 [2:01:03<06:13, 11.31s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████████▎    | 500/532 [2:01:05<04:26,  8.33s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████████▍    | 501/532 [2:01:25<06:07, 11.85s/it]
    
    
     94%|█████████████████████████████████████████████████████████████████████████▌    | 502/532 [2:01:27<04:34,  9.14s/it]
    
    
     95%|█████████████████████████████████████████████████████████████████████████▋    | 503/532 [2:01:32<03:44,  7.74s/it]
    
    
     95%|█████████████████████████████████████████████████████████████████████████▉    | 504/532 [2:01:32<02:33,  5.47s/it]
    
    
     95%|██████████████████████████████████████████████████████████████████████████    | 505/532 [2:02:01<05:40, 12.63s/it]
    
    
     95%|██████████████████████████████████████████████████████████████████████████▏   | 506/532 [2:02:03<04:02,  9.32s/it]
    
    
     95%|██████████████████████████████████████████████████████████████████████████▎   | 507/532 [2:02:09<03:28,  8.36s/it]
    
    
     95%|██████████████████████████████████████████████████████████████████████████▍   | 508/532 [2:02:10<02:27,  6.16s/it]
    
    
     96%|██████████████████████████████████████████████████████████████████████████▋   | 509/532 [2:02:22<03:04,  8.01s/it]
    
    
     96%|██████████████████████████████████████████████████████████████████████████▊   | 510/532 [2:02:24<02:14,  6.13s/it]
    
    
     96%|██████████████████████████████████████████████████████████████████████████▉   | 511/532 [2:02:31<02:10,  6.22s/it]
    
    
     96%|███████████████████████████████████████████████████████████████████████████   | 512/532 [2:02:32<01:34,  4.72s/it]
    
    
     96%|███████████████████████████████████████████████████████████████████████████▏  | 513/532 [2:02:34<01:13,  3.87s/it]
    
    
     97%|███████████████████████████████████████████████████████████████████████████▎  | 514/532 [2:02:35<00:57,  3.20s/it]
    
    
     97%|███████████████████████████████████████████████████████████████████████████▌  | 515/532 [2:03:22<04:34, 16.13s/it]
    
    
     97%|███████████████████████████████████████████████████████████████████████████▋  | 516/532 [2:03:24<03:10, 11.93s/it]
    
    
     97%|███████████████████████████████████████████████████████████████████████████▊  | 517/532 [2:03:26<02:13,  8.89s/it]
    
    
     97%|███████████████████████████████████████████████████████████████████████████▉  | 518/532 [2:03:31<01:51,  7.98s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████  | 519/532 [2:03:33<01:16,  5.91s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████▏ | 520/532 [2:03:33<00:51,  4.32s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████▍ | 521/532 [2:03:45<01:12,  6.63s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████▌ | 522/532 [2:03:46<00:48,  4.86s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████▋ | 523/532 [2:03:47<00:34,  3.78s/it]
    
    
     98%|████████████████████████████████████████████████████████████████████████████▊ | 524/532 [2:03:48<00:23,  2.99s/it]
    
    
     99%|████████████████████████████████████████████████████████████████████████████▉ | 525/532 [2:03:49<00:16,  2.34s/it]
    
    
     99%|█████████████████████████████████████████████████████████████████████████████ | 526/532 [2:03:56<00:21,  3.55s/it]
    
    
     99%|█████████████████████████████████████████████████████████████████████████████▎| 527/532 [2:03:56<00:12,  2.59s/it]
    
    
     99%|█████████████████████████████████████████████████████████████████████████████▍| 528/532 [2:04:00<00:12,  3.19s/it]
    
    
     99%|█████████████████████████████████████████████████████████████████████████████▌| 529/532 [2:04:19<00:23,  7.69s/it]
    
    
    100%|█████████████████████████████████████████████████████████████████████████████▋| 530/532 [2:04:20<00:11,  5.77s/it]
    
    
    100%|█████████████████████████████████████████████████████████████████████████████▊| 531/532 [2:04:21<00:04,  4.46s/it]
    
    
    100%|██████████████████████████████████████████████████████████████████████████████| 532/532 [2:04:25<00:00,  4.14s/it]
    In [79]:
    df3_q1 = pd.DataFrame(cv_df.q1_feats_m.values.tolist(), index= cv_df.index)
    
    In [84]:
    if not os.path.isfile('FEATUREtfidfw2vCV.csv'):
        df3_q1['ID']=cv_df['ID']
        resultCV  = cv_df.merge(df3_q1, on='ID',how='left')
        resultCV.to_csv('FEATUREtfidfw2vCV.csv')
    
    In [153]:
    if not os.path.isfile('FEATUREtfidfw2vCV2.csv'):
        resultCV2  = df3_q1
        resultCV2.to_csv('FEATUREtfidfw2vCV2.csv')
    

    NOTE:- We will use above file little further after other engineering hack (vectorising our text via spaCy NLP en_core_web_sm).

    ------------------------------------------------task 4.2----------------------------------------------------

    vectorising via TF-IDF with taken all words into consideration from gene,variation and text features.

    In [48]:
    # Collecting all the genes and variations in a single list
    corpus = []
    for word in result['Gene'].values:
        corpus.append(word)
    for word in result['Variation'].values:
        corpus.append(word)
    for word in result['TEXT'].values:
        corpus.append(word)
    
    In [49]:
    len(corpus)
    
    Out[49]:
    9963
    In [51]:
    text1 = TfidfVectorizer()
    text2 = text1.fit_transform(corpus)
    text1_features = text1.get_feature_names()
    
    # Transforming the train_df['TEXT']
    train_text = text1.transform(train_df['TEXT'])
    
    # Transforming the test_df['TEXT']
    test_text = text1.transform(test_df['TEXT'])
    
    # Transforming the cv_df['TEXT']
    cv_text = text1.transform(cv_df['TEXT'])
    
    # Normalizing the train_text
    train_text = normalize(train_text,axis=0)
    
    # Normalizing the test_text
    test_text = normalize(test_text,axis=0)
    
    # Normalizing the cv_text
    cv_text = normalize(cv_text,axis=0)
    
    In [52]:
    # merging gene, variance and text features
    
    # building train, test and cross validation data sets
    # a = [[1, 2], 
    #      [3, 4]]
    # b = [[4, 5], 
    #      [6, 7]]
    # hstack(a, b) = [[1, 2, 4, 5],
    #                [ 3, 4, 6, 7]]
    
    train_gene_var_onehotCoding = hstack((train_gene_feature_onehotCoding,train_variation_feature_onehotCoding))
    test_gene_var_onehotCoding = hstack((test_gene_feature_onehotCoding,test_variation_feature_onehotCoding))
    cv_gene_var_onehotCoding = hstack((cv_gene_feature_onehotCoding,cv_variation_feature_onehotCoding))
    
    # Adding the train_text feature
    train_x_onehotCoding = hstack((train_gene_var_onehotCoding, train_text))
    train_x_onehotCoding = hstack((train_x_onehotCoding, train_text_feature_onehotCoding)).tocsr()
    train_y = np.array(list(train_df['Class']))
    
    # Adding the test_text feature
    test_x_onehotCoding = hstack((test_gene_var_onehotCoding, test_text))
    test_x_onehotCoding = hstack((test_x_onehotCoding, test_text_feature_onehotCoding)).tocsr()
    test_y = np.array(list(test_df['Class']))
    
    # Adding the cv_text feature
    cv_x_onehotCoding = hstack((cv_gene_var_onehotCoding, cv_text))
    cv_x_onehotCoding = hstack((cv_x_onehotCoding, cv_text_feature_onehotCoding)).tocsr()
    cv_y = np.array(list(cv_df['Class']))
    
    
    train_gene_var_responseCoding = np.hstack((train_gene_feature_responseCoding,train_variation_feature_responseCoding))
    test_gene_var_responseCoding = np.hstack((test_gene_feature_responseCoding,test_variation_feature_responseCoding))
    cv_gene_var_responseCoding = np.hstack((cv_gene_feature_responseCoding,cv_variation_feature_responseCoding))
    
    train_x_responseCoding = np.hstack((train_gene_var_responseCoding, train_text_feature_responseCoding))
    test_x_responseCoding = np.hstack((test_gene_var_responseCoding, test_text_feature_responseCoding))
    cv_x_responseCoding = np.hstack((cv_gene_var_responseCoding, cv_text_feature_responseCoding))
    
    In [53]:
    print("One hot encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_onehotCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_onehotCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_onehotCoding.shape)
    
    One hot encoding features :
    (number of data points * number of features) in train data =  (2124, 209601)
    (number of data points * number of features) in test data =  (665, 209601)
    (number of data points * number of features) in cross validation data = (532, 209601)
    
    In [54]:
    print(" Response encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_responseCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_responseCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_responseCoding.shape)
    
     Response encoding features :
    (number of data points * number of features) in train data =  (2124, 27)
    (number of data points * number of features) in test data =  (665, 27)
    (number of data points * number of features) in cross validation data = (532, 27)
    

    Base Line Model

    Naive Bayes

    Hyper parameter tuning

    In [249]:
    # find more about Multinomial Naive base function here http://scikit-learn.org/stable/modules/generated/sklearn.naive_bayes.MultinomialNB.html
    # -------------------------
    # default paramters
    # sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
    
    # some of methods of MultinomialNB()
    # fit(X, y[, sample_weight])	Fit Naive Bayes classifier according to X, y
    # predict(X)	Perform classification on an array of test vectors X.
    # predict_log_proba(X)	Return log-probability estimates for the test vector X.
    # -----------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    # ----------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    alpha = [0.00001, 0.0001, 0.001, 0.1, 1, 10, 100,1000]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = MultinomialNB(alpha=i)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(np.log10(alpha), cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (np.log10(alpha[i]),cv_log_error_array[i]))
    plt.grid()
    plt.xticks(np.log10(alpha))
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = MultinomialNB(alpha=alpha[best_alpha])
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    nb_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    nb_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    nb_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 1e-05
    Log Loss : 1.2636175748288012
    for alpha = 0.0001
    Log Loss : 1.2599940390140119
    for alpha = 0.001
    Log Loss : 1.2790308557635353
    for alpha = 0.1
    Log Loss : 1.2941790828859339
    for alpha = 1
    Log Loss : 1.3336256681289844
    for alpha = 10
    Log Loss : 1.4003673863579484
    for alpha = 100
    Log Loss : 1.3443274215003693
    for alpha = 1000
    Log Loss : 1.2874832184297773
    
    For values of best alpha =  0.0001 The train log loss is: 0.862966080684403
    For values of best alpha =  0.0001 The cross validation log loss is: 1.2599940390140119
    For values of best alpha =  0.0001 The test log loss is: 1.293204403095999
    

    Testing the model with best hyper paramters

    In [250]:
    # find more about Multinomial Naive base function here http://scikit-learn.org/stable/modules/generated/sklearn.naive_bayes.MultinomialNB.html
    # -------------------------
    # default paramters
    # sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
    
    # some of methods of MultinomialNB()
    # fit(X, y[, sample_weight])	Fit Naive Bayes classifier according to X, y
    # predict(X)	Perform classification on an array of test vectors X.
    # predict_log_proba(X)	Return log-probability estimates for the test vector X.
    # -----------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    # ----------------------------
    
    clf = MultinomialNB(alpha=alpha[best_alpha])
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
    # to avoid rounding error while multiplying probabilites we use log-probability estimates
    print("Log Loss :",log_loss(cv_y, sig_clf_probs))
    print("Number of missclassified point :", np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])
    plot_confusion_matrix(cv_y, sig_clf.predict(cv_x_onehotCoding.toarray()))
    
    # Variables that will be used in the end to make comparison table of models
    nb_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log Loss : 1.2599940390140119
    Number of missclassified point : 0.37781954887218044
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Feature Importance, Correctly classified point

    In [251]:
    test_point_index = 1
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 1
    Predicted Class Probabilities: [[0.5661 0.0877 0.0123 0.1178 0.0374 0.0407 0.1303 0.0036 0.004 ]]
    Actual Class : 4
    --------------------------------------------------
    

    Feature Importance, Incorrectly classified point

    In [252]:
    test_point_index = 100
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[0.1    0.0812 0.0112 0.1075 0.0344 0.0375 0.6212 0.0034 0.0036]]
    Actual Class : 7
    --------------------------------------------------
    

    K Nearest Neighbour Classification

    Hyper parameter tuning

    In [253]:
    # find more about KNeighborsClassifier() here http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html
    # -------------------------
    # default parameter
    # KNeighborsClassifier(n_neighbors=5, weights=’uniform’, algorithm=’auto’, leaf_size=30, p=2, 
    # metric=’minkowski’, metric_params=None, n_jobs=1, **kwargs)
    
    # methods of
    # fit(X, y) : Fit the model using X as training data and y as target values
    # predict(X):Predict the class labels for the provided data
    # predict_proba(X):Return probability estimates for the test data X.
    #-------------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/k-nearest-neighbors-geometric-intuition-with-a-toy-example-1/
    #-------------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    
    alpha = [5, 11, 15, 21, 31, 41, 51, 99]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = KNeighborsClassifier(n_neighbors=i)
        clf.fit(train_x_responseCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_responseCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_responseCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_responseCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_responseCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_responseCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    knn_train = log_loss(y_train, sig_clf.predict_proba(train_x_responseCoding), labels=clf.classes_, eps=1e-15)
    knn_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_responseCoding), labels=clf.classes_, eps=1e-15)
    knn_test = log_loss(y_test, sig_clf.predict_proba(test_x_responseCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 5
    Log Loss : 1.0286915438663768
    for alpha = 11
    Log Loss : 1.0417943000730487
    for alpha = 15
    Log Loss : 1.068867888844843
    for alpha = 21
    Log Loss : 1.0946906560944136
    for alpha = 31
    Log Loss : 1.1169587475472424
    for alpha = 41
    Log Loss : 1.1347140844351764
    for alpha = 51
    Log Loss : 1.1367712357363147
    for alpha = 99
    Log Loss : 1.1534130469659825
    
    For values of best alpha =  5 The train log loss is: 0.4816834308635685
    For values of best alpha =  5 The cross validation log loss is: 1.0286915438663768
    For values of best alpha =  5 The test log loss is: 1.0828043626651087
    

    Testing the model with best hyper paramters

    In [254]:
    # find more about KNeighborsClassifier() here http://scikit-learn.org/stable/modules/generated/sklearn.neighbors.KNeighborsClassifier.html
    # -------------------------
    # default parameter
    # KNeighborsClassifier(n_neighbors=5, weights=’uniform’, algorithm=’auto’, leaf_size=30, p=2, 
    # metric=’minkowski’, metric_params=None, n_jobs=1, **kwargs)
    
    # methods of
    # fit(X, y) : Fit the model using X as training data and y as target values
    # predict(X):Predict the class labels for the provided data
    # predict_proba(X):Return probability estimates for the test data X.
    #-------------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/k-nearest-neighbors-geometric-intuition-with-a-toy-example-1/
    #-------------------------------------
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    predict_and_plot_confusion_matrix(train_x_responseCoding, train_y, cv_x_responseCoding, cv_y, clf)
    
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    knn_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_responseCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.0286915438663768
    Number of mis-classified points : 0.35150375939849626
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.2.3.Sample Query point -1

    In [255]:
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    test_point_index = 1
    predicted_cls = sig_clf.predict(test_x_responseCoding[0].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Actual Class :", test_y[test_point_index])
    neighbors = clf.kneighbors(test_x_responseCoding[test_point_index].reshape(1, -1), alpha[best_alpha])
    print("The ",alpha[best_alpha]," nearest neighbours of the test points belongs to classes",train_y[neighbors[1][0]])
    print("Fequency of nearest points :",Counter(train_y[neighbors[1][0]]))
    
    Predicted Class : 7
    Actual Class : 4
    The  5  nearest neighbours of the test points belongs to classes [1 4 4 4 4]
    Fequency of nearest points : Counter({4: 4, 1: 1})
    

    4.2.4. Sample Query Point-2

    In [256]:
    clf = KNeighborsClassifier(n_neighbors=alpha[best_alpha])
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    test_point_index = 100
    
    predicted_cls = sig_clf.predict(test_x_responseCoding[test_point_index].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Actual Class :", test_y[test_point_index])
    neighbors = clf.kneighbors(test_x_responseCoding[test_point_index].reshape(1, -1), alpha[best_alpha])
    print("the k value for knn is",alpha[best_alpha],"and the nearest neighbours of the test points belongs to classes",train_y[neighbors[1][0]])
    print("Fequency of nearest points :",Counter(train_y[neighbors[1][0]]))
    
    Predicted Class : 7
    Actual Class : 7
    the k value for knn is 5 and the nearest neighbours of the test points belongs to classes [7 7 7 7 7]
    Fequency of nearest points : Counter({7: 5})
    

    Logistic Regression

    With Class balancing

    Hyper paramter tuning

    In [257]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(class_weight='balanced', alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_balance_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 1e-06
    Log Loss : 1.382896329477155
    for alpha = 1e-05
    Log Loss : 1.406930679589009
    for alpha = 0.0001
    Log Loss : 1.3627067059703108
    for alpha = 0.001
    Log Loss : 1.181015192123009
    for alpha = 0.01
    Log Loss : 1.2521096163495384
    for alpha = 0.1
    Log Loss : 1.3351409303188035
    for alpha = 1
    Log Loss : 1.4781154491767066
    for alpha = 10
    Log Loss : 1.5270200067970783
    for alpha = 100
    Log Loss : 1.5331226242000724
    
    For values of best alpha =  0.001 The train log loss is: 0.6791066310298077
    For values of best alpha =  0.001 The cross validation log loss is: 1.181015192123009
    For values of best alpha =  0.001 The test log loss is: 1.116954897770258
    

    4.3.1.2. Testing the model with best hyper paramters

    In [258]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_balance_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.181015192123009
    Number of mis-classified points : 0.37969924812030076
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    4.3.1.3. Feature Importance

    In [259]:
    def get_imp_feature_names(text, indices, removed_ind = []):
        word_present = 0
        tabulte_list = []
        incresingorder_ind = 0
        for i in indices:
            if i < train_gene_feature_onehotCoding.shape[1]:
                tabulte_list.append([incresingorder_ind, "Gene", "Yes"])
            elif i< 18:
                tabulte_list.append([incresingorder_ind,"Variation", "Yes"])
            if ((i > 17) & (i not in removed_ind)) :
                word = train_text_features[i]
                yes_no = True if word in text.split() else False
                if yes_no:
                    word_present += 1
                tabulte_list.append([incresingorder_ind,train_text_features[i], yes_no])
            incresingorder_ind += 1
        print(word_present, "most importent features are present in our query point")
        print("-"*50)
        print("The features that are most importent of the ",predicted_cls[0]," class:")
        print (tabulate(tabulte_list, headers=["Index",'Feature name', 'Present or Not']))
    

    4.3.1.3.1. Correctly Classified point

    In [260]:
    # from tabulate import tabulate
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 4
    Predicted Class Probabilities: [[0.2202 0.1398 0.0159 0.4649 0.0415 0.0203 0.0399 0.031  0.0265]]
    Actual Class : 4
    --------------------------------------------------
    

    Incorrectly Classified point

    In [261]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[0.031  0.0861 0.0139 0.0485 0.0362 0.0076 0.7501 0.0158 0.0108]]
    Actual Class : 7
    --------------------------------------------------
    

    Without Class balancing

    Hyperparamter tuning

    In [262]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 1)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 1e-06
    Log Loss : 1.3641803149507898
    for alpha = 1e-05
    Log Loss : 1.3697580339765207
    for alpha = 0.0001
    Log Loss : 1.3661726525075808
    for alpha = 0.001
    Log Loss : 1.230755439498845
    for alpha = 0.01
    Log Loss : 1.2509779193634274
    for alpha = 0.1
    Log Loss : 1.3281864080424566
    for alpha = 1
    Log Loss : 1.460260478875054
    
    For values of best alpha =  0.001 The train log loss is: 0.6569506540671142
    For values of best alpha =  0.001 The cross validation log loss is: 1.230755439498845
    For values of best alpha =  0.001 The test log loss is: 1.1397148544080722
    

    Testing model with best hyper parameters

    In [265]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.230755439498845
    Number of mis-classified points : 0.37218045112781956
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Feature Importance, Correctly Classified point

    In [266]:
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 4
    Predicted Class Probabilities: [[0.2705 0.1406 0.0025 0.4053 0.0152 0.0107 0.0842 0.0704 0.0006]]
    Actual Class : 4
    --------------------------------------------------
    

    Feature Importance, Inorrectly Classified point

    In [267]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[3.470e-02 7.830e-02 3.200e-03 6.440e-02 1.550e-02 4.700e-03 7.808e-01
      1.780e-02 5.000e-04]]
    Actual Class : 7
    --------------------------------------------------
    

    Linear Support Vector Machines

    Hyper paramter tuning

    In [268]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-5, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for C =", i)
    #     clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
        clf = SGDClassifier( class_weight='balanced', alpha=i, penalty='l2', loss='hinge', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    # clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    svm_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    svm_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    svm_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for C = 1e-05
    Log Loss : 1.4012909445702306
    for C = 0.0001
    Log Loss : 1.381131192603443
    for C = 0.001
    Log Loss : 1.355705566290905
    for C = 0.01
    Log Loss : 1.2159251469517538
    for C = 0.1
    Log Loss : 1.4448111787584679
    for C = 1
    Log Loss : 1.5318994856199861
    for C = 10
    Log Loss : 1.5341410144305523
    for C = 100
    Log Loss : 1.5341347709887743
    
    For values of best alpha =  0.01 The train log loss is: 0.681009539603264
    For values of best alpha =  0.01 The cross validation log loss is: 1.2159251469517538
    For values of best alpha =  0.01 The test log loss is: 1.160057432243769
    

    Testing model with best hyper parameters

    In [269]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    # clf = SVC(C=alpha[best_alpha],kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42,class_weight='balanced')
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y,cv_x_onehotCoding,cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    svm_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.2159251469517538
    Number of mis-classified points : 0.37593984962406013
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Feature Importance

    For Correctly classified point

    In [270]:
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    # test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 4
    Predicted Class Probabilities: [[0.2645 0.0554 0.0059 0.5541 0.0248 0.0111 0.0411 0.0291 0.014 ]]
    Actual Class : 4
    --------------------------------------------------
    

    For Incorrectly classified point

    In [271]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[0.024  0.0475 0.0055 0.051  0.0207 0.0044 0.8175 0.024  0.0055]]
    Actual Class : 7
    --------------------------------------------------
    

    Random Forest Classifier

    Hyper paramter tuning (With One hot Encoding)

    In [272]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [100,200,500,1000,2000]
    max_depth = [5, 10]
    cv_log_error_array = []
    for i in alpha:
        for j in max_depth:
            print("for n_estimators =", i,"and max depth = ", j)
            clf = RandomForestClassifier(n_estimators=i, criterion='gini', max_depth=j, random_state=42, n_jobs=-1)
            clf.fit(train_x_onehotCoding, train_y)
            sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
            sig_clf.fit(train_x_onehotCoding, train_y)
            sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
            cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
            print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    '''fig, ax = plt.subplots()
    features = np.dot(np.array(alpha)[:,None],np.array(max_depth)[None]).ravel()
    ax.plot(features, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[int(i/2)],max_depth[int(i%2)],str(txt)), (features[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    '''
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/2)], criterion='gini', max_depth=max_depth[int(best_alpha%2)], random_state=42, n_jobs=-1)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best estimator = ', alpha[int(best_alpha/2)], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best estimator = ', alpha[int(best_alpha/2)], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best estimator = ', alpha[int(best_alpha/2)], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    rf_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    rf_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    rf_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for n_estimators = 100 and max depth =  5
    Log Loss : 1.2498296478319073
    for n_estimators = 100 and max depth =  10
    Log Loss : 1.1714012529782467
    for n_estimators = 200 and max depth =  5
    Log Loss : 1.2282298796652482
    for n_estimators = 200 and max depth =  10
    Log Loss : 1.157632090163359
    for n_estimators = 500 and max depth =  5
    Log Loss : 1.2182096294495122
    for n_estimators = 500 and max depth =  10
    Log Loss : 1.1494394592994939
    for n_estimators = 1000 and max depth =  5
    Log Loss : 1.2136127789930673
    for n_estimators = 1000 and max depth =  10
    Log Loss : 1.147359705716597
    for n_estimators = 2000 and max depth =  5
    Log Loss : 1.212976825449904
    for n_estimators = 2000 and max depth =  10
    Log Loss : 1.1479651593110227
    For values of best estimator =  1000 The train log loss is: 0.6346370450610951
    For values of best estimator =  1000 The cross validation log loss is: 1.147359705716597
    For values of best estimator =  1000 The test log loss is: 1.1265281196854848
    

    Testing model with best hyper parameters (One Hot Encoding)

    In [273]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/2)], criterion='gini', max_depth=max_depth[int(best_alpha%2)], random_state=42, n_jobs=-1)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y,cv_x_onehotCoding,cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    rf_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.147359705716597
    Number of mis-classified points : 0.3890977443609023
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Feature Importance

    Correctly Classified point

    In [274]:
    # test_point_index = 10
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/2)], criterion='gini', max_depth=max_depth[int(best_alpha%2)], random_state=42, n_jobs=-1)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    test_point_index = 1
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    
    Predicted Class : 4
    Predicted Class Probabilities: [[0.2352 0.1229 0.0208 0.2871 0.0644 0.0662 0.1873 0.009  0.0072]]
    Actual Class : 4
    --------------------------------------------------
    

    4.5.3.2. Inorrectly Classified point

    In [275]:
    test_point_index = 100
    no_feature = 100
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actuall Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[0.0578 0.1993 0.0163 0.0576 0.0506 0.0419 0.5632 0.0098 0.0036]]
    Actuall Class : 7
    --------------------------------------------------
    

    +4.5.3. Hyper paramter tuning (With Response Coding)

    In [276]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10,50,100,200,500,1000]
    max_depth = [2,3,5,10]
    cv_log_error_array = []
    for i in alpha:
        for j in max_depth:
            print("for n_estimators =", i,"and max depth = ", j)
            clf = RandomForestClassifier(n_estimators=i, criterion='gini', max_depth=j, random_state=42, n_jobs=-1)
            clf.fit(train_x_responseCoding, train_y)
            sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
            sig_clf.fit(train_x_responseCoding, train_y)
            sig_clf_probs = sig_clf.predict_proba(cv_x_responseCoding)
            cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
            print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    '''
    fig, ax = plt.subplots()
    features = np.dot(np.array(alpha)[:,None],np.array(max_depth)[None]).ravel()
    ax.plot(features, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[int(i/4)],max_depth[int(i%4)],str(txt)), (features[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    '''
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/4)], criterion='gini', max_depth=max_depth[int(best_alpha%4)], random_state=42, n_jobs=-1)
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_responseCoding)
    print('For values of best alpha = ', alpha[int(best_alpha/4)], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_responseCoding)
    print('For values of best alpha = ', alpha[int(best_alpha/4)], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_responseCoding)
    print('For values of best alpha = ', alpha[int(best_alpha/4)], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    rf_response_train = log_loss(y_train, sig_clf.predict_proba(train_x_responseCoding), labels=clf.classes_, eps=1e-15)
    rf_response_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_responseCoding), labels=clf.classes_, eps=1e-15)
    rf_response_test = log_loss(y_test, sig_clf.predict_proba(test_x_responseCoding), labels=clf.classes_, eps=1e-15)
    
    for n_estimators = 10 and max depth =  2
    Log Loss : 2.020210030510885
    for n_estimators = 10 and max depth =  3
    Log Loss : 1.6885996241440222
    for n_estimators = 10 and max depth =  5
    Log Loss : 1.6485804136423752
    for n_estimators = 10 and max depth =  10
    Log Loss : 1.9271970775455762
    for n_estimators = 50 and max depth =  2
    Log Loss : 1.7105735356095693
    for n_estimators = 50 and max depth =  3
    Log Loss : 1.4677803370319527
    for n_estimators = 50 and max depth =  5
    Log Loss : 1.3449341266878405
    for n_estimators = 50 and max depth =  10
    Log Loss : 1.7305357692341607
    for n_estimators = 100 and max depth =  2
    Log Loss : 1.6117759340687894
    for n_estimators = 100 and max depth =  3
    Log Loss : 1.5065418603384086
    for n_estimators = 100 and max depth =  5
    Log Loss : 1.2994398280626545
    for n_estimators = 100 and max depth =  10
    Log Loss : 1.7150358854036032
    for n_estimators = 200 and max depth =  2
    Log Loss : 1.7005967327460845
    for n_estimators = 200 and max depth =  3
    Log Loss : 1.5215058749845087
    for n_estimators = 200 and max depth =  5
    Log Loss : 1.3384797555008465
    for n_estimators = 200 and max depth =  10
    Log Loss : 1.7090753661946534
    for n_estimators = 500 and max depth =  2
    Log Loss : 1.7506253803638006
    for n_estimators = 500 and max depth =  3
    Log Loss : 1.5653913674965196
    for n_estimators = 500 and max depth =  5
    Log Loss : 1.361866008806591
    for n_estimators = 500 and max depth =  10
    Log Loss : 1.7037465052277823
    for n_estimators = 1000 and max depth =  2
    Log Loss : 1.716426514423557
    for n_estimators = 1000 and max depth =  3
    Log Loss : 1.5409738899398664
    for n_estimators = 1000 and max depth =  5
    Log Loss : 1.3399131377270832
    for n_estimators = 1000 and max depth =  10
    Log Loss : 1.6885330925552782
    For values of best alpha =  100 The train log loss is: 0.052462961217133106
    For values of best alpha =  100 The cross validation log loss is: 1.2994398280626542
    For values of best alpha =  100 The test log loss is: 1.3014627532073675
    

    Testing model with best hyper parameters (Response Coding)

    In [277]:
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    clf = RandomForestClassifier(max_depth=max_depth[int(best_alpha%4)], n_estimators=alpha[int(best_alpha/4)], criterion='gini', max_features='auto',random_state=42)
    predict_and_plot_confusion_matrix(train_x_responseCoding, train_y,cv_x_responseCoding,cv_y, clf)
    
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    rf_response_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_responseCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.2994398280626545
    Number of mis-classified points : 0.462406015037594
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Feature Importance

    Correctly Classified point

    In [278]:
    clf = RandomForestClassifier(n_estimators=alpha[int(best_alpha/4)], criterion='gini', max_depth=max_depth[int(best_alpha%4)], random_state=42, n_jobs=-1)
    clf.fit(train_x_responseCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_responseCoding, train_y)
    
    
    test_point_index = 1
    no_feature = 27
    predicted_cls = sig_clf.predict(test_x_responseCoding[test_point_index].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_responseCoding[test_point_index].reshape(1,-1)),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    for i in indices:
        if i<9:
            print("Gene is important feature")
        elif i<18:
            print("Variation is important feature")
        else:
            print("Text is important feature")
    
    Predicted Class : 4
    Predicted Class Probabilities: [[0.1269 0.0154 0.1087 0.6363 0.0171 0.0409 0.0087 0.0209 0.025 ]]
    Actual Class : 4
    --------------------------------------------------
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Gene is important feature
    Variation is important feature
    Variation is important feature
    Text is important feature
    Text is important feature
    Gene is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Gene is important feature
    Gene is important feature
    Variation is important feature
    Text is important feature
    Gene is important feature
    Text is important feature
    Gene is important feature
    Variation is important feature
    Variation is important feature
    Gene is important feature
    Text is important feature
    Text is important feature
    Gene is important feature
    Gene is important feature
    

    Incorrectly Classified point

    In [279]:
    test_point_index = 100
    predicted_cls = sig_clf.predict(test_x_responseCoding[test_point_index].reshape(1,-1))
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_responseCoding[test_point_index].reshape(1,-1)),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.feature_importances_)
    print("-"*50)
    for i in indices:
        if i<9:
            print("Gene is important feature")
        elif i<18:
            print("Variation is important feature")
        else:
            print("Text is important feature")
    
    Predicted Class : 7
    Predicted Class Probabilities: [[0.0217 0.289  0.0626 0.0245 0.0362 0.0473 0.3718 0.1291 0.0178]]
    Actual Class : 7
    --------------------------------------------------
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Variation is important feature
    Gene is important feature
    Variation is important feature
    Variation is important feature
    Text is important feature
    Text is important feature
    Gene is important feature
    Text is important feature
    Text is important feature
    Text is important feature
    Gene is important feature
    Gene is important feature
    Variation is important feature
    Text is important feature
    Gene is important feature
    Text is important feature
    Gene is important feature
    Variation is important feature
    Variation is important feature
    Gene is important feature
    Text is important feature
    Text is important feature
    Gene is important feature
    Gene is important feature
    

    Stack the models

    testing with hyper parameter tuning

    In [281]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.RandomForestClassifier.html
    # --------------------------------
    # default parameters 
    # sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, min_samples_split=2, 
    # min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, 
    # min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, 
    # class_weight=None)
    
    # Some of methods of RandomForestClassifier()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # predict_proba (X)	Perform classification on samples in X.
    
    # some of attributes of  RandomForestClassifier()
    # feature_importances_ : array of shape = [n_features]
    # The feature importances (the higher, the more important the feature).
    
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/random-forest-and-their-construction-2/
    # --------------------------------
    
    
    clf1 = SGDClassifier(alpha=0.001, penalty='l2', loss='log', class_weight='balanced', random_state=0)
    clf1.fit(train_x_onehotCoding, train_y)
    sig_clf1 = CalibratedClassifierCV(clf1, method="sigmoid")
    
    clf2 = SGDClassifier(alpha=1, penalty='l2', loss='hinge', class_weight='balanced', random_state=0)
    clf2.fit(train_x_onehotCoding, train_y)
    sig_clf2 = CalibratedClassifierCV(clf2, method="sigmoid")
    
    
    clf3 = MultinomialNB(alpha=0.001)
    clf3.fit(train_x_onehotCoding, train_y)
    sig_clf3 = CalibratedClassifierCV(clf3, method="sigmoid")
    
    sig_clf1.fit(train_x_onehotCoding, train_y)
    print("Logistic Regression :  Log Loss: %0.2f" % (log_loss(cv_y, sig_clf1.predict_proba(cv_x_onehotCoding))))
    sig_clf2.fit(train_x_onehotCoding, train_y)
    print("Support vector machines : Log Loss: %0.2f" % (log_loss(cv_y, sig_clf2.predict_proba(cv_x_onehotCoding))))
    sig_clf3.fit(train_x_onehotCoding, train_y)
    print("Naive Bayes : Log Loss: %0.2f" % (log_loss(cv_y, sig_clf3.predict_proba(cv_x_onehotCoding))))
    print("-"*50)
    alpha = [0.0001,0.001,0.01,0.1,1,10] 
    best_alpha = 999
    for i in alpha:
        lr = LogisticRegression(C=i)
        sclf = StackingClassifier(classifiers=[sig_clf1, sig_clf2, sig_clf3], meta_classifier=lr, use_probas=True)
        sclf.fit(train_x_onehotCoding, train_y)
        print("Stacking Classifer : for the value of alpha: %f Log Loss: %0.3f" % (i, log_loss(cv_y, sclf.predict_proba(cv_x_onehotCoding))))
        log_error =log_loss(cv_y, sclf.predict_proba(cv_x_onehotCoding))
        if best_alpha > log_error:
            best_alpha = log_error
    
    Logistic Regression :  Log Loss: 1.18
    Support vector machines : Log Loss: 1.53
    Naive Bayes : Log Loss: 1.28
    --------------------------------------------------
    Stacking Classifer : for the value of alpha: 0.000100 Log Loss: 2.179
    Stacking Classifer : for the value of alpha: 0.001000 Log Loss: 2.046
    Stacking Classifer : for the value of alpha: 0.010000 Log Loss: 1.542
    Stacking Classifer : for the value of alpha: 0.100000 Log Loss: 1.146
    Stacking Classifer : for the value of alpha: 1.000000 Log Loss: 1.221
    Stacking Classifer : for the value of alpha: 10.000000 Log Loss: 1.449
    

    testing the model with the best hyper parameters

    In [282]:
    lr = LogisticRegression(C=0.1)
    sclf = StackingClassifier(classifiers=[sig_clf1, sig_clf2, sig_clf3], meta_classifier=lr, use_probas=True)
    sclf.fit(train_x_onehotCoding, train_y)
    
    log_error = log_loss(train_y, sclf.predict_proba(train_x_onehotCoding))
    print("Log loss (train) on the stacking classifier :",log_error)
    
    log_error1 = log_loss(cv_y, sclf.predict_proba(cv_x_onehotCoding))
    print("Log loss (CV) on the stacking classifier :",log_error1)
    
    log_error2 = log_loss(test_y, sclf.predict_proba(test_x_onehotCoding))
    print("Log loss (test) on the stacking classifier :",log_error2)
    
    print("Number of missclassified point :", np.count_nonzero((sclf.predict(test_x_onehotCoding)- test_y))/test_y.shape[0])
    plot_confusion_matrix(test_y=test_y, predict_y=sclf.predict(test_x_onehotCoding))
    
    # Variables that will be used in the end to make comparison table of all models
    stack_train = log_error
    stack_cv = log_error1
    stack_test = log_error2
    stack_misclassified = (np.count_nonzero((sclf.predict(test_x_onehotCoding)- test_y))/test_y.shape[0])*100
    
    Log loss (train) on the stacking classifier : 0.6697751074173852
    Log loss (CV) on the stacking classifier : 1.1463790492707695
    Log loss (test) on the stacking classifier : 1.175289256401481
    Number of missclassified point : 0.37593984962406013
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Maximum Voting classifier

    In [283]:
    #Refer:http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.VotingClassifier.html
    from sklearn.ensemble import VotingClassifier
    vclf = VotingClassifier(estimators=[('lr', sig_clf1), ('svc', sig_clf2), ('rf', sig_clf3)], voting='soft')
    vclf.fit(train_x_onehotCoding, train_y)
    print("Log loss (train) on the VotingClassifier :", log_loss(train_y, vclf.predict_proba(train_x_onehotCoding)))
    print("Log loss (CV) on the VotingClassifier :", log_loss(cv_y, vclf.predict_proba(cv_x_onehotCoding)))
    print("Log loss (test) on the VotingClassifier :", log_loss(test_y, vclf.predict_proba(test_x_onehotCoding)))
    print("Number of missclassified point :", np.count_nonzero((vclf.predict(test_x_onehotCoding)- test_y))/test_y.shape[0])
    plot_confusion_matrix(test_y=test_y, predict_y=vclf.predict(test_x_onehotCoding))
    
    # Variables that will be used in the end to make comparison table of all models
    mvc_train = log_loss(train_y, vclf.predict_proba(train_x_onehotCoding))
    mvc_cv = log_loss(cv_y, vclf.predict_proba(cv_x_onehotCoding))
    mvc_test = log_loss(test_y, vclf.predict_proba(test_x_onehotCoding))
    mvc_misclassified = (np.count_nonzero((vclf.predict(test_x_onehotCoding)- test_y))/test_y.shape[0])*100
    
    Log loss (train) on the VotingClassifier : 0.8992452713850164
    Log loss (CV) on the VotingClassifier : 1.1958440607295253
    Log loss (test) on the VotingClassifier : 1.1921558409637527
    Number of missclassified point : 0.38345864661654133
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    
    In [98]:
    # Creating table using PrettyTable library
    from prettytable import PrettyTable
    
    # Names of models
    names =['Naive Bayes','K-Nearest Neighbour','LR With Class Balancing',\
            'LR Without Class Balancing','Linear SVM',\
            'RF With One hot Encoding','RF With Response Coding',\
            'Stacking Classifier','Maximum Voting Classifier']
    
    # Training loss
    train_loss = [0.86296,0.4816834,0.679106,0.65695065,0.6810095,0.634637,0.05246296,0.669775,0.8992452    ] 
    
    # Cross Validation loss
    cv_loss = [1.25999,1.028691,1.181015,1.230755439,1.2159251,1.147359,1.29943982,1.14637,1.195844   ]
    # Test loss
    test_loss = [1.29320,1.082804,1.11695, 1.13971,1.1600574, 1.1265281,1.3014627, 1.1752892,1.1921558 ]
    
    log_loss=[ 1.259994,1.028691,1.18101519,1.23075,1.21592514,1.147359,1.2994398,1.1752892 ,1.1921558   ]
    
    alpha=[0.0001,5,.001,.001,.01,1000,100,.1   ,'NaN']
    
    # Percentage Misclassified points
    misclassified = [0.377819,.35150375,0.37969924, 0.372180451,0.3759398, 0.3890977, 0.46240601,0.3759398 ,0.3834586  ]
    
    numbering = [1,2,3,4,5,6,7,8,9]
    
    # Initializing prettytable
    ptable = PrettyTable()
    
    # Adding columns
    ptable.add_column("S.NO.",numbering)
    ptable.add_column("MODEL",names)
    ptable.add_column("hyperparameter",alpha)
    ptable.add_column("Train_loss",train_loss)
    ptable.add_column("CV_loss",cv_loss)
    ptable.add_column("Test_loss",test_loss)
    ptable.add_column("log_loss",log_loss)
    ptable.add_column("Misclassified(%)",misclassified)
    
    # Printing the Table
    print(ptable)
    
    +-------+----------------------------+----------------+------------+-------------+-----------+------------+------------------+
    | S.NO. |           MODEL            | hyperparameter | Train_loss |   CV_loss   | Test_loss |  log_loss  | Misclassified(%) |
    +-------+----------------------------+----------------+------------+-------------+-----------+------------+------------------+
    |   1   |        Naive Bayes         |     0.0001     |  0.86296   |   1.25999   |   1.2932  |  1.259994  |     0.377819     |
    |   2   |    K-Nearest Neighbour     |       5        | 0.4816834  |   1.028691  |  1.082804 |  1.028691  |    0.35150375    |
    |   3   |  LR With Class Balancing   |     0.001      |  0.679106  |   1.181015  |  1.11695  | 1.18101519 |    0.37969924    |
    |   4   | LR Without Class Balancing |     0.001      | 0.65695065 | 1.230755439 |  1.13971  |  1.23075   |   0.372180451    |
    |   5   |         Linear SVM         |      0.01      | 0.6810095  |  1.2159251  | 1.1600574 | 1.21592514 |    0.3759398     |
    |   6   |  RF With One hot Encoding  |      1000      |  0.634637  |   1.147359  | 1.1265281 |  1.147359  |    0.3890977     |
    |   7   |  RF With Response Coding   |      100       | 0.05246296 |  1.29943982 | 1.3014627 | 1.2994398  |    0.46240601    |
    |   8   |    Stacking Classifier     |      0.1       |  0.669775  |   1.14637   | 1.1752892 | 1.1752892  |    0.3759398     |
    |   9   | Maximum Voting Classifier  |      NaN       | 0.8992452  |   1.195844  | 1.1921558 | 1.1921558  |    0.3834586     |
    +-------+----------------------------+----------------+------------+-------------+-----------+------------+------------------+
    

    ------------------------------------------------- TASK 4.2------------------------------------------------

    In [55]:
    FEATUREtfidfw2v=pd.read_csv("FEATUREtfidfw2v.csv",encoding='latin-1')
    
    In [56]:
    FEATUREtfidfw2vTEST=pd.read_csv("FEATUREtfidfw2vTEST.csv",encoding='latin-1')
    
    In [58]:
    FEATUREtfidfw2vCV=pd.read_csv("FEATUREtfidfw2vCV.csv",encoding='latin-1')
    
    In [59]:
    df1 = FEATUREtfidfw2v.drop(['q1_feats_m','ID','Gene','Variation','Class','TEXT'],axis=1)
    df2 = FEATUREtfidfw2vTEST.drop(['q1_feats_m','ID','Gene','Variation','Class','TEXT'],axis=1)
    df3 = FEATUREtfidfw2vCV.drop(['q1_feats_m','ID','Gene','Variation','Class','TEXT'],axis=1)
    
    In [314]:
    train_x_onehotCoding = df1
    test_x_onehotCoding =df2
    cv_x_onehotCoding= df3
    
    In [61]:
    df4 = FEATUREtfidfw2v['q1_feats_m']
    
    In [62]:
    type(df4)
    
    Out[62]:
    pandas.core.series.Series
    In [63]:
    text_vectorizer = TfidfVectorizer()
    train_text_feature_onehotCoding = text_vectorizer.fit_transform(train_df['TEXT'])
    
    In [346]:
    train_variation_feature_onehotCoding = variation_vectorizer.fit_transform(train_df['Variation'])
    test_variation_feature_onehotCoding = variation_vectorizer.transform(test_df['Variation'])
    cv_variation_feature_onehotCoding = variation_vectorizer.transform(cv_df['Variation'])
    
    In [347]:
    train_gene_feature_onehotCoding = gene_vectorizer.fit_transform(train_df['Gene'])
    test_gene_feature_onehotCoding = gene_vectorizer.transform(test_df['Gene'])
    cv_gene_feature_onehotCoding = gene_vectorizer.transform(cv_df['Gene'])
    
    In [348]:
    train_text_feature_onehotCoding
    train_x_onehotCoding = hstack((train_text_feature_onehotCoding, df1,train_variation_feature_onehotCoding,train_gene_feature_onehotCoding)).tocsr()
    
    test_text_feature_onehotCoding = text_vectorizer.transform(test_df['TEXT'])
    test_x_onehotCoding = hstack((test_text_feature_onehotCoding, df2,test_variation_feature_onehotCoding,test_gene_feature_onehotCoding )).tocsr()
    
    # we use the same vectorizer that was trained on train data
    cv_text_feature_onehotCoding = text_vectorizer.transform(cv_df['TEXT'])
    cv_x_onehotCoding = hstack((cv_text_feature_onehotCoding, df3,cv_variation_feature_onehotCoding ,cv_gene_feature_onehotCoding)).tocsr()
    cv_x_onehotCoding = normalize(cv_x_onehotCoding, axis=0)
    
    In [349]:
    test_x_onehotCoding = normalize(test_x_onehotCoding, axis=0)
    train_x_onehotCoding = normalize(train_x_onehotCoding, axis=0)
    
    In [350]:
    print("One hot encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_onehotCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_onehotCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_onehotCoding.shape)
    
    One hot encoding features :
    (number of data points * number of features) in train data =  (2124, 131686)
    (number of data points * number of features) in test data =  (665, 131686)
    (number of data points * number of features) in cross validation data = (532, 131686)
    

    Linear regression hyperparameter tuning

    In [354]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(class_weight='balanced', alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_balance_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 1e-06
    Log Loss : 1.4090992729663327
    for alpha = 1e-05
    Log Loss : 1.4054121255241787
    for alpha = 0.0001
    Log Loss : 1.34939718863081
    for alpha = 0.001
    Log Loss : 1.1980296380288478
    for alpha = 0.01
    Log Loss : 1.2698346984808229
    for alpha = 0.1
    Log Loss : 1.360810360325156
    for alpha = 1
    Log Loss : 1.5316859231099211
    for alpha = 10
    Log Loss : 1.5647088434811385
    for alpha = 100
    Log Loss : 1.5686066498665467
    
    For values of best alpha =  0.001 The train log loss is: 0.5984903254737128
    For values of best alpha =  0.001 The cross validation log loss is: 1.1980296380288478
    For values of best alpha =  0.001 The test log loss is: 1.131241633757007
    

    Testing the model with best hyper paramters

    In [355]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_balance_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.1980296380288478
    Number of mis-classified points : 0.39849624060150374
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Without Class balancing

    Hyper paramter tuning

    In [359]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [.0001 * x for x in range(1, 20)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 0.0001
    Log Loss : 1.3400908945968404
    for alpha = 0.0002
    Log Loss : 1.282070181203759
    for alpha = 0.00030000000000000003
    Log Loss : 1.245755661746107
    for alpha = 0.0004
    Log Loss : 1.2226532202316003
    for alpha = 0.0005
    Log Loss : 1.2104122746054968
    for alpha = 0.0006000000000000001
    Log Loss : 1.2064890352376794
    for alpha = 0.0007
    Log Loss : 1.2069327453046954
    for alpha = 0.0008
    Log Loss : 1.20892391269454
    for alpha = 0.0009000000000000001
    Log Loss : 1.2116161386211428
    for alpha = 0.001
    Log Loss : 1.2092086777368765
    for alpha = 0.0011
    Log Loss : 1.2123969325173152
    for alpha = 0.0012000000000000001
    Log Loss : 1.2158738951571295
    for alpha = 0.0013000000000000002
    Log Loss : 1.217516630200302
    for alpha = 0.0014
    Log Loss : 1.2200138555431896
    for alpha = 0.0015
    Log Loss : 1.2211254713344293
    for alpha = 0.0016
    Log Loss : 1.2207136421483051
    for alpha = 0.0017000000000000001
    Log Loss : 1.2178064981926535
    for alpha = 0.0018000000000000002
    Log Loss : 1.2180850534061307
    for alpha = 0.0019
    Log Loss : 1.2191429991365021
    
    For values of best alpha =  0.0006000000000000001 The train log loss is: 0.6370201485851975
    For values of best alpha =  0.0006000000000000001 The cross validation log loss is: 1.2064890352376794
    For values of best alpha =  0.0006000000000000001 The test log loss is: 1.1457121283162601
    

    Testing model with best hyper parameters

    In [360]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.2064890352376794
    Number of mis-classified points : 0.38533834586466165
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Linear SVM

    In [362]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [.010 * x for x in range(1, 10)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(class_weight='balanced', alpha=i, penalty='l2', loss='hinge', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_balance_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 0.01
    Log Loss : 1.2334308730548527
    for alpha = 0.02
    Log Loss : 1.275143632052075
    for alpha = 0.03
    Log Loss : 1.3143423950997135
    for alpha = 0.04
    Log Loss : 1.3500657514960692
    for alpha = 0.05
    Log Loss : 1.3792207275033916
    for alpha = 0.06
    Log Loss : 1.3915634311851948
    for alpha = 0.07
    Log Loss : 1.3966872495055618
    for alpha = 0.08
    Log Loss : 1.395495514388444
    for alpha = 0.09
    Log Loss : 1.3988311934541604
    
    For values of best alpha =  0.01 The train log loss is: 0.6081885433542652
    For values of best alpha =  0.01 The cross validation log loss is: 1.2698346984808229
    For values of best alpha =  0.01 The test log loss is: 1.171607720392886
    

    Testing the model with best hyper paramters

    In [363]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_balance_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.2334308730548527
    Number of mis-classified points : 0.37406015037593987
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    
    In [365]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [.010 * x for x in range(1, 10)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(alpha=i, penalty='l2', loss='hinge', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 0.01
    Log Loss : 1.2378930078415091
    for alpha = 0.02
    Log Loss : 1.2612875630673706
    for alpha = 0.03
    Log Loss : 1.2926853283903503
    for alpha = 0.04
    Log Loss : 1.3124655842648842
    for alpha = 0.05
    Log Loss : 1.3266522905075564
    for alpha = 0.06
    Log Loss : 1.33378356922595
    for alpha = 0.07
    Log Loss : 1.3346231431653819
    for alpha = 0.08
    Log Loss : 1.3268882949614995
    for alpha = 0.09
    Log Loss : 1.3267143621482378
    
    For values of best alpha =  0.01 The train log loss is: 0.6013319787567547
    For values of best alpha =  0.01 The cross validation log loss is: 1.271518198647418
    For values of best alpha =  0.01 The test log loss is: 1.1670885369325852
    

    Testing model with best hyper parameters

    In [367]:
    #SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.2378930078415091
    Number of mis-classified points : 0.38721804511278196
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    
    In [99]:
    # Creating table using PrettyTable library
    from prettytable import PrettyTable
    
    # Names of models
    names =['LR With Class Balancing','LR Without Class Balancing','Linear SVM balanced','Linear SVM UNbalanced']
    
    # Training loss
    train_loss = [0.59849032,0.637020,0.60818854 ,0.60133197  ] 
    
    # Cross Validation loss
    cv_loss = [1.198029638, 1.20648903,1.26983469,1.2715181 ]
    # Test loss
    test_loss = [1.13124163,1.1457121,1.1716077,1.1670885 ]
    
    log_loss=[1.19802963 ,1.20648903,1.23343087305,1.23789300  ]
    
    alpha=[0.001, 0.0006 ,.01,.01, ]
    
    # Percentage Misclassified points
    misclassified = [0.39849624,0.38533834,0.374060150,0.38721804 ]
    
    numbering = [1,2,3,4]
    
    # Initializing prettytable
    ptable = PrettyTable()
    
    # Adding columns
    ptable.add_column("S.NO.",numbering)
    ptable.add_column("MODEL",names)
    ptable.add_column("hyperparameter",alpha)
    ptable.add_column("Train_loss",train_loss)
    ptable.add_column("CV_loss",cv_loss)
    ptable.add_column("Test_loss",test_loss)
    ptable.add_column("log_loss",log_loss)
    ptable.add_column("Misclassified(%)",misclassified)
    
    # Printing the Table
    print(ptable)
    
    +-------+----------------------------+----------------+------------+-------------+------------+---------------+------------------+
    | S.NO. |           MODEL            | hyperparameter | Train_loss |   CV_loss   | Test_loss  |    log_loss   | Misclassified(%) |
    +-------+----------------------------+----------------+------------+-------------+------------+---------------+------------------+
    |   1   |  LR With Class Balancing   |     0.001      | 0.59849032 | 1.198029638 | 1.13124163 |   1.19802963  |    0.39849624    |
    |   2   | LR Without Class Balancing |     0.0006     |  0.63702   |  1.20648903 | 1.1457121  |   1.20648903  |    0.38533834    |
    |   3   |    Linear SVM balanced     |      0.01      | 0.60818854 |  1.26983469 | 1.1716077  | 1.23343087305 |    0.37406015    |
    |   4   |   Linear SVM UNbalanced    |      0.01      | 0.60133197 |  1.2715181  | 1.1670885  |    1.237893   |    0.38721804    |
    +-------+----------------------------+----------------+------------+-------------+------------+---------------+------------------+
    
    In [64]:
    train_x_onehotCoding = hstack((train_x_onehotCoding , df1)).tocsr()
    
    
    test_x_onehotCoding = hstack((test_x_onehotCoding, df2)).tocsr()
    
    cv_x_onehotCoding = hstack((cv_x_onehotCoding, df3)).tocsr()
    
    cv_x_onehotCoding = normalize(cv_x_onehotCoding, axis=0)
    test_x_onehotCoding = normalize(test_x_onehotCoding, axis=0)
    train_x_onehotCoding = normalize(train_x_onehotCoding, axis=0)
    
    In [65]:
    print("One hot encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_onehotCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_onehotCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_onehotCoding.shape)
    
    One hot encoding features :
    (number of data points * number of features) in train data =  (2124, 209698)
    (number of data points * number of features) in test data =  (665, 209698)
    (number of data points * number of features) in cross validation data = (532, 209698)
    

    . Logistic Regression

    With Class balancing

    . Hyper paramter tuning

    In [82]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [.00010 * x for x in range(1, 15)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(class_weight='balanced', alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_balance_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_balance_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 0.0001
    Log Loss : 1.36103062126
    for alpha = 0.0002
    Log Loss : 1.30369422653
    for alpha = 0.00030000000000000003
    Log Loss : 1.2674784388
    for alpha = 0.0004
    Log Loss : 1.21832943827
    for alpha = 0.0005
    Log Loss : 1.20259280734
    for alpha = 0.0006000000000000001
    Log Loss : 1.18260598674
    for alpha = 0.0007
    Log Loss : 1.16467531687
    for alpha = 0.0008
    Log Loss : 1.14838330014
    for alpha = 0.0009000000000000001
    Log Loss : 1.14347154335
    for alpha = 0.001
    Log Loss : 1.14023231745
    for alpha = 0.0011
    Log Loss : 1.13638865264
    for alpha = 0.0012000000000000001
    Log Loss : 1.13384211872
    for alpha = 0.0013000000000000002
    Log Loss : 1.13268536913
    for alpha = 0.0014
    Log Loss : 1.13145971591
    
    For values of best alpha =  0.0014 The train log loss is: 0.659144571696
    For values of best alpha =  0.0014 The cross validation log loss is: 1.13145971591
    For values of best alpha =  0.0014 The test log loss is: 1.15641103571
    

    Testing the model with best hyper paramters

    In [83]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_balance_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.13145971591
    Number of mis-classified points : 0.37218045112781956
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Correctly Classified point

    In [84]:
    # from tabulate import tabulate
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 4
    Predicted Class Probabilities: [[ 0.03    0.0082  0.0094  0.6384  0.2989  0.0066  0.0014  0.0054  0.0018]]
    Actual Class : 4
    --------------------------------------------------
    

    . Incorrectly Classified point

    In [85]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[ 0.0519  0.22    0.0203  0.0288  0.0294  0.006   0.6253  0.0129  0.0054]]
    Actual Class : 6
    --------------------------------------------------
    

    Without Class balancing

    Hyper paramter tuning

    In [73]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 1)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    lr_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    lr_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for alpha = 1e-06
    Log Loss : 1.32878896508
    for alpha = 1e-05
    Log Loss : 1.33168781454
    for alpha = 0.0001
    Log Loss : 1.32473463181
    for alpha = 0.001
    Log Loss : 1.18918671648
    for alpha = 0.01
    Log Loss : 1.18055764631
    for alpha = 0.1
    Log Loss : 1.31924459546
    for alpha = 1
    Log Loss : 1.49738616915
    
    For values of best alpha =  0.01 The train log loss is: 0.604869197517
    For values of best alpha =  0.01 The cross validation log loss is: 1.18055764631
    For values of best alpha =  0.01 The test log loss is: 1.18231017511
    

    Testing model with best hyper parameters

    In [74]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    lr_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.18055764631
    Number of mis-classified points : 0.36466165413533835
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Feature Importance, Correctly Classified point

    In [75]:
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 4
    Predicted Class Probabilities: [[  1.35000000e-02   8.00000000e-04   3.00000000e-04   5.59400000e-01
        4.24600000e-01   1.00000000e-03   2.00000000e-04   1.00000000e-04
        0.00000000e+00]]
    Actual Class : 4
    --------------------------------------------------
    

    Feature Importance, Inorrectly Classified point

    In [76]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[  2.10000000e-02   1.16100000e-01   9.00000000e-04   1.77000000e-02
        4.70000000e-03   1.80000000e-03   8.37100000e-01   7.00000000e-04
        1.00000000e-04]]
    Actual Class : 6
    --------------------------------------------------
    

    Linear Support Vector Machines

    Hyper paramter tuning

    In [77]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-5, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for C =", i)
    #     clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
        clf = SGDClassifier( class_weight='balanced', alpha=i, penalty='l2', loss='hinge', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    # clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    # Variables that will be used in the end to make comparison table of all models
    svm_train = log_loss(y_train, sig_clf.predict_proba(train_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    svm_cv = log_loss(y_cv, sig_clf.predict_proba(cv_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    svm_test = log_loss(y_test, sig_clf.predict_proba(test_x_onehotCoding), labels=clf.classes_, eps=1e-15)
    
    for C = 1e-05
    Log Loss : 1.3441855966
    for C = 0.0001
    Log Loss : 1.35256243482
    for C = 0.001
    Log Loss : 1.28332515272
    for C = 0.01
    Log Loss : 1.18502464403
    for C = 0.1
    Log Loss : 1.23270408332
    for C = 1
    Log Loss : 1.46763742686
    for C = 10
    Log Loss : 1.48802628889
    for C = 100
    Log Loss : 1.48802629003
    
    For values of best alpha =  0.01 The train log loss is: 0.705455234695
    For values of best alpha =  0.01 The cross validation log loss is: 1.18502464403
    For values of best alpha =  0.01 The test log loss is: 1.21357810253
    

    Testing model with best hyper parameters

    In [78]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    # clf = SVC(C=alpha[best_alpha],kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42,class_weight='balanced')
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y,cv_x_onehotCoding,cv_y, clf)
    
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    # Variables that will be used in the end to make comparison table of models
    svm_misclassified = (np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])*100
    
    Log loss : 1.18502464403
    Number of mis-classified points : 0.34398496240601506
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Feature Importance

    For Correctly classified point

    In [79]:
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    clf.fit(train_x_onehotCoding,train_y)
    test_point_index = 1
    # test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 4
    Predicted Class Probabilities: [[ 0.0658  0.0246  0.0062  0.5273  0.3465  0.0039  0.0183  0.0057  0.0017]]
    Actual Class : 4
    --------------------------------------------------
    

    For Incorrectly classified point

    In [80]:
    test_point_index = 100
    no_feature = 500
    predicted_cls = sig_clf.predict(test_x_onehotCoding[test_point_index])
    print("Predicted Class :", predicted_cls[0])
    print("Predicted Class Probabilities:", np.round(sig_clf.predict_proba(test_x_onehotCoding[test_point_index]),4))
    print("Actual Class :", test_y[test_point_index])
    indices = np.argsort(-clf.coef_)[predicted_cls-1][:,:no_feature]
    print("-"*50)
    
    Predicted Class : 7
    Predicted Class Probabilities: [[ 0.0795  0.2008  0.0111  0.0688  0.0364  0.0085  0.5778  0.0131  0.004 ]]
    Actual Class : 6
    --------------------------------------------------
    
    In [97]:
    # Creating table using PrettyTable library
    from prettytable import PrettyTable
    
    # Names of models
    names =['LR With Class Balancing','LR Without Class Balancing','Linear SVM ']
    
    # Training loss
    train_loss = [0.659144,0.604869,0.705455  ] 
    
    # Cross Validation loss
    cv_loss = [1.13145978, 1.180557,1.185024]
    # Test loss
    test_loss = [1.156411,1.18231017,1.2135781 ]
    
    log_loss=[1.1314597 ,1.180557,1.1850246 ]
    
    alpha=[0.0014, 0.01 ,.01 ]
    
    # Percentage Misclassified points
    misclassified = [0.37218045,0.3646616541,0.3439849624]
    
    numbering = [1,2,3]
    
    # Initializing prettytable
    ptable = PrettyTable()
    
    # Adding columns
    ptable.add_column("S.NO.",numbering)
    ptable.add_column("MODEL",names)
    ptable.add_column("hyperparameter",alpha)
    ptable.add_column("Train_loss",train_loss)
    ptable.add_column("CV_loss",cv_loss)
    ptable.add_column("Test_loss",test_loss)
    ptable.add_column("log_loss",log_loss)
    ptable.add_column("Misclassified(%)",misclassified)
    
    # Printing the Table
    print(ptable)
    
    +-------+----------------------------+----------------+------------+------------+------------+-----------+------------------+
    | S.NO. |           MODEL            | hyperparameter | Train_loss |  CV_loss   | Test_loss  |  log_loss | Misclassified(%) |
    +-------+----------------------------+----------------+------------+------------+------------+-----------+------------------+
    |   1   |  LR With Class Balancing   |     0.0014     |  0.659144  | 1.13145978 |  1.156411  | 1.1314597 |    0.37218045    |
    |   2   | LR Without Class Balancing |      0.01      |  0.604869  |  1.180557  | 1.18231017 |  1.180557 |   0.3646616541   |
    |   3   |        Linear SVM          |      0.01      |  0.705455  |  1.185024  | 1.2135781  | 1.1850246 |   0.3439849624   |
    +-------+----------------------------+----------------+------------+------------+------------+-----------+------------------+
    

    TASK4.3

    Apply models with TfidfVectorizer(ngram_range=(1, 4)) to reduce log loss.

    In [65]:
    # Tfidf encoding of Gene feature.
    gene_vectorizer = TfidfVectorizer(ngram_range=(1, 4))
    train_gene_feature_onehotCoding = gene_vectorizer.fit_transform(train_df['Gene'])
    test_gene_feature_onehotCoding = gene_vectorizer.transform(test_df['Gene'])
    cv_gene_feature_onehotCoding = gene_vectorizer.transform(cv_df['Gene'])
    
    In [66]:
    train_df['Gene'].head()
    
    Out[66]:
    2219      PTEN
    334       ROS1
    745      ERBB2
    3287       RET
    1941    CARD11
    Name: Gene, dtype: object
    In [67]:
    print("train_gene_feature_Tfidf is converted feature using Tfidf encoding method. The shape of gene feature:", train_gene_feature_onehotCoding.shape)
    
    train_gene_feature_Tfidf is converted feature using Tfidf encoding method. The shape of gene feature: (2124, 242)
    
    In [68]:
    # one-hot encoding of variation feature.
    variation_vectorizer = TfidfVectorizer(ngram_range=(1, 4))
    train_variation_feature_onehotCoding = variation_vectorizer.fit_transform(train_df['Variation'])
    test_variation_feature_onehotCoding = variation_vectorizer.transform(test_df['Variation'])
    cv_variation_feature_onehotCoding = variation_vectorizer.transform(cv_df['Variation'])
    
    In [69]:
    print("train_variation_feature_Tfidf is converted feature using the TfidfVectorizer encoding method. The shape of Variation feature:", train_variation_feature_onehotCoding.shape)
    
    train_variation_feature_Tfidf is converted feature using the TfidfVectorizer encoding method. The shape of Variation feature: (2124, 2077)
    
    In [71]:
    # building a CountVectorizer with all the words that occured minimum 3 times in train data
    text_vectorizer = TfidfVectorizer(min_df=3,ngram_range=(1, 4))
    train_text_feature_onehotCoding = text_vectorizer.fit_transform(train_df['TEXT'])
    # getting all the feature names (words)
    train_text_features= text_vectorizer.get_feature_names()
    
    # train_text_feature_onehotCoding.sum(axis=0).A1 will sum every row and returns (1*number of features) vector
    train_text_fea_counts = train_text_feature_onehotCoding.sum(axis=0).A1
    
    # zip(list(text_features),text_fea_counts) will zip a word with its number of times it occured
    text_fea_dict = dict(zip(list(train_text_features),train_text_fea_counts))
    
    
    print("Total number of unique words in train data :", len(train_text_features))
    
    Total number of unique words in train data : 2947188
    
    In [73]:
    dict_list = []
    # dict_list =[] contains 9 dictoinaries each corresponds to a class
    for i in range(1,10):
        cls_text = train_df[train_df['Class']==i]
        # build a word dict based on the words in that class
        dict_list.append(extract_dictionary_paddle(cls_text))
        # append it to dict_list
    
    # dict_list[i] is build on i'th  class text data
    # total_dict is buid on whole training text data
    total_dict = extract_dictionary_paddle(train_df)
    
    
    confuse_array = []
    for i in train_text_features:
        ratios = []
        max_val = -1
        for j in range(0,9):
            ratios.append((dict_list[j][i]+10 )/(total_dict[i]+90))
        confuse_array.append(ratios)
    confuse_array = np.array(confuse_array)
    
    In [74]:
    # don't forget to normalize every feature
    train_text_feature_onehotCoding = normalize(train_text_feature_onehotCoding, axis=0)
    
    # we use the same vectorizer that was trained on train data
    test_text_feature_onehotCoding = text_vectorizer.transform(test_df['TEXT'])
    # don't forget to normalize every feature
    test_text_feature_onehotCoding = normalize(test_text_feature_onehotCoding, axis=0)
    
    # we use the same vectorizer that was trained on train data
    cv_text_feature_onehotCoding = text_vectorizer.transform(cv_df['TEXT'])
    # don't forget to normalize every feature
    cv_text_feature_onehotCoding = normalize(cv_text_feature_onehotCoding, axis=0)
    
    In [75]:
    #https://stackoverflow.com/a/2258273/4084039
    sorted_text_fea_dict = dict(sorted(text_fea_dict.items(), key=lambda x: x[1] , reverse=True))
    sorted_text_occur = np.array(list(sorted_text_fea_dict.values()))
    
    In [76]:
    # Number of words for a given frequency.
    print(Counter(sorted_text_occur))
    
    IOPub data rate exceeded.
    The notebook server will temporarily stop sending output
    to the client in order to avoid crashing it.
    To change this limit, set the config variable
    `--NotebookApp.iopub_data_rate_limit`.
    
    Current values:
    NotebookApp.iopub_data_rate_limit=1000000.0 (bytes/sec)
    NotebookApp.rate_limit_window=3.0 (secs)
    
    
    In [77]:
    # merging gene, variance and text features
    
    # building train, test and cross validation data sets
    # a = [[1, 2], 
    #      [3, 4]]
    # b = [[4, 5], 
    #      [6, 7]]
    # hstack(a, b) = [[1, 2, 4, 5],
    #                [ 3, 4, 6, 7]]
    
    train_gene_var_onehotCoding = hstack((train_gene_feature_onehotCoding,train_variation_feature_onehotCoding))
    test_gene_var_onehotCoding = hstack((test_gene_feature_onehotCoding,test_variation_feature_onehotCoding))
    cv_gene_var_onehotCoding = hstack((cv_gene_feature_onehotCoding,cv_variation_feature_onehotCoding))
    
    train_x_onehotCoding = hstack((train_gene_var_onehotCoding, train_text_feature_onehotCoding)).tocsr()
    train_y = np.array(list(train_df['Class']))
    
    test_x_onehotCoding = hstack((test_gene_var_onehotCoding, test_text_feature_onehotCoding)).tocsr()
    test_y = np.array(list(test_df['Class']))
    
    cv_x_onehotCoding = hstack((cv_gene_var_onehotCoding, cv_text_feature_onehotCoding)).tocsr()
    cv_y = np.array(list(cv_df['Class']))
    
    
    train_gene_var_responseCoding = np.hstack((train_gene_feature_responseCoding,train_variation_feature_responseCoding))
    test_gene_var_responseCoding = np.hstack((test_gene_feature_responseCoding,test_variation_feature_responseCoding))
    cv_gene_var_responseCoding = np.hstack((cv_gene_feature_responseCoding,cv_variation_feature_responseCoding))
    
    train_x_responseCoding = np.hstack((train_gene_var_responseCoding, train_text_feature_responseCoding))
    test_x_responseCoding = np.hstack((test_gene_var_responseCoding, test_text_feature_responseCoding))
    cv_x_responseCoding = np.hstack((cv_gene_var_responseCoding, cv_text_feature_responseCoding))
    
    In [78]:
    print("One hot encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_onehotCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_onehotCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_onehotCoding.shape)
    
    One hot encoding features :
    (number of data points * number of features) in train data =  (2124, 2949507)
    (number of data points * number of features) in test data =  (665, 2949507)
    (number of data points * number of features) in cross validation data = (532, 2949507)
    
    In [79]:
    print(" Response encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_responseCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_responseCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_responseCoding.shape)
    
     Response encoding features :
    (number of data points * number of features) in train data =  (2124, 27)
    (number of data points * number of features) in test data =  (665, 27)
    (number of data points * number of features) in cross validation data = (532, 27)
    

    4.1. Base Line Model

    4.1.1. Naive Bayes 4.1.1.1. Hyper parameter tuning

    In [80]:
    # find more about Multinomial Naive base function here http://scikit-learn.org/stable/modules/generated/sklearn.naive_bayes.MultinomialNB.html
    # -------------------------
    # default paramters
    # sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
    
    # some of methods of MultinomialNB()
    # fit(X, y[, sample_weight])	Fit Naive Bayes classifier according to X, y
    # predict(X)	Perform classification on an array of test vectors X.
    # predict_log_proba(X)	Return log-probability estimates for the test vector X.
    # -----------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    # ----------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    alpha = [0.00001, 0.0001, 0.001, 0.1, 1, 10, 100,1000]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = MultinomialNB(alpha=i)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(np.log10(alpha), cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (np.log10(alpha[i]),cv_log_error_array[i]))
    plt.grid()
    plt.xticks(np.log10(alpha))
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = MultinomialNB(alpha=alpha[best_alpha])
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 1e-05
    Log Loss : 1.3765800185134995
    for alpha = 0.0001
    Log Loss : 1.3746417736373668
    for alpha = 0.001
    Log Loss : 1.353256389897647
    for alpha = 0.1
    Log Loss : 1.3308372294752544
    for alpha = 1
    Log Loss : 1.3184053689881017
    for alpha = 10
    Log Loss : 1.3381050105533234
    for alpha = 100
    Log Loss : 1.316569482271147
    for alpha = 1000
    Log Loss : 1.3389873938247974
    
    For values of best alpha =  100 The train log loss is: 0.8918914732930308
    For values of best alpha =  100 The cross validation log loss is: 1.316569482271147
    For values of best alpha =  100 The test log loss is: 1.2868493579545006
    

    Testing the model with best hyper paramters

    In [81]:
     
    
    
    
    
    
    
    # find more about Multinomial Naive base function here http://scikit-learn.org/stable/modules/generated/sklearn.naive_bayes.MultinomialNB.html
    # -------------------------
    # default paramters
    # sklearn.naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
    
    # some of methods of MultinomialNB()
    # fit(X, y[, sample_weight])	Fit Naive Bayes classifier according to X, y
    # predict(X)	Perform classification on an array of test vectors X.
    # predict_log_proba(X)	Return log-probability estimates for the test vector X.
    # -----------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/naive-bayes-algorithm-1/
    # -----------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    # ----------------------------
    
    clf = MultinomialNB(alpha=alpha[best_alpha])
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
    # to avoid rounding error while multiplying probabilites we use log-probability estimates
    print("Log Loss :",log_loss(cv_y, sig_clf_probs))
    print("Number of missclassified point :", np.count_nonzero((sig_clf.predict(cv_x_onehotCoding)- cv_y))/cv_y.shape[0])
    plot_confusion_matrix(cv_y, sig_clf.predict(cv_x_onehotCoding.toarray()))
    
    Log Loss : 1.316569482271147
    Number of missclassified point : 0.4323308270676692
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Logistic Regression

    With Class balancing

    Hyper paramter tuning

    In [83]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(class_weight='balanced', alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 1e-06
    Log Loss : 1.6420163008254358
    for alpha = 1e-05
    Log Loss : 1.6221941970692166
    for alpha = 0.0001
    Log Loss : 1.6410528064015917
    for alpha = 0.001
    Log Loss : 1.614806758899185
    for alpha = 0.01
    Log Loss : 1.4121156444696379
    for alpha = 0.1
    Log Loss : 1.2226936189965052
    for alpha = 1
    Log Loss : 1.3222533531553637
    for alpha = 10
    Log Loss : 1.360368580800491
    for alpha = 100
    Log Loss : 1.3717819701178908
    
    For values of best alpha =  0.1 The train log loss is: 0.8374172096853272
    For values of best alpha =  0.1 The cross validation log loss is: 1.2226936189965052
    For values of best alpha =  0.1 The test log loss is: 1.226256153828243
    

    Testing the model with best hyper paramters

    In [84]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    Log loss : 1.2226936189965052
    Number of mis-classified points : 0.41729323308270677
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Without Class balancing

    Hyper paramter tuning

    In [85]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 1)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 1e-06
    Log Loss : 1.597374224089425
    for alpha = 1e-05
    Log Loss : 1.601963555682457
    for alpha = 0.0001
    Log Loss : 1.5819362460896964
    for alpha = 0.001
    Log Loss : 1.5725462799020395
    for alpha = 0.01
    Log Loss : 1.3747990125564926
    for alpha = 0.1
    Log Loss : 1.2001679265647536
    for alpha = 1
    Log Loss : 1.2879653821087518
    
    For values of best alpha =  0.1 The train log loss is: 0.8158282000564178
    For values of best alpha =  0.1 The cross validation log loss is: 1.2001679265647536
    For values of best alpha =  0.1 The test log loss is: 1.2106645705199262
    

    Testing model with best hyper parameters

    In [86]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    Log loss : 1.2001679265647536
    Number of mis-classified points : 0.4116541353383459
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Linear Support Vector Machines

    Hyper paramter tuning

    In [87]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-5, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for C =", i)
    #     clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
        clf = SGDClassifier( class_weight='balanced', alpha=i, penalty='l2', loss='hinge', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    # clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for C = 1e-05
    Log Loss : 1.6201596751684968
    for C = 0.0001
    Log Loss : 1.6152389706375527
    for C = 0.001
    Log Loss : 1.6228005035878061
    for C = 0.01
    Log Loss : 1.5214373458263075
    for C = 0.1
    Log Loss : 1.28350640392116
    for C = 1
    Log Loss : 1.3118620939537922
    for C = 10
    Log Loss : 1.3572901452347381
    for C = 100
    Log Loss : 1.3730420157439664
    
    For values of best alpha =  0.1 The train log loss is: 0.9736046834943349
    For values of best alpha =  0.1 The cross validation log loss is: 1.28350640392116
    For values of best alpha =  0.1 The test log loss is: 1.3024503489897257
    
    In [89]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [.010 * x for x in range(1, 10)]
    cv_log_error_array = []
    for i in alpha:
        print("for C =", i)
    #     clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
        clf = SGDClassifier( class_weight='balanced', alpha=i, penalty='l2', loss='hinge', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    # clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier( alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for C = 0.01
    Log Loss : 1.5214373458263075
    for C = 0.02
    Log Loss : 1.4205465386825573
    for C = 0.03
    Log Loss : 1.392306986398047
    for C = 0.04
    Log Loss : 1.3526296965024613
    for C = 0.05
    Log Loss : 1.3247111208586866
    for C = 0.06
    Log Loss : 1.313172991667708
    for C = 0.07
    Log Loss : 1.296723303595621
    for C = 0.08
    Log Loss : 1.295484612995185
    for C = 0.09
    Log Loss : 1.287544457801556
    
    For values of best alpha =  0.09 The train log loss is: 0.9997779473893065
    For values of best alpha =  0.09 The cross validation log loss is: 1.287544457801556
    For values of best alpha =  0.09 The test log loss is: 1.3135819969334754
    

    Testing model with best hyper parameters

    In [90]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    # clf = SVC(C=alpha[best_alpha],kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42,class_weight='balanced')
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y,cv_x_onehotCoding,cv_y, clf)
    
    Log loss : 1.287544457801556
    Number of mis-classified points : 0.41541353383458646
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    
    In [117]:
    # Creating table using PrettyTable library
    from prettytable import PrettyTable
    
    # Names of models
    names =['LR With Class Balancing','LR Without Class Balancing','Linear SVM balanced']
    
    # Training loss
    train_loss = [0.891891, 0.81582820,0.99977  ] 
    
    # Cross Validation loss
    cv_loss = [1.316569, 1.2001679,1.283506 ]
    # Test loss
    test_loss = [1.28684,1.210664,1.31358 ]
    
    log_loss=[1.316569 ,0.41165,1.28754445  ]
    
    alpha=[100, 0.1 , 0.09 ]
    
    # Percentage Misclassified points
    misclassified= [0.43233,0.38533834,0.4154135]
    
    numbering = [1,2,3]
    
    # Initializing prettytable
    ptable = PrettyTable()
    
    # Adding columns
    ptable.add_column("S.NO.",numbering)
    ptable.add_column("MODEL",names)
    ptable.add_column("hyperparameter",alpha)
    ptable.add_column("Train_loss",train_loss)
    ptable.add_column("CV_loss",cv_loss)
    ptable.add_column("Test_loss",test_loss)
    ptable.add_column("log_loss",log_loss)
    ptable.add_column("Misclassified(%)",misclassified)
    
    # Printing the Table
    print(ptable)
    
    +-------+----------------------------+----------------+------------+-----------+-----------+------------+------------------+
    | S.NO. |           MODEL            | hyperparameter | Train_loss |  CV_loss  | Test_loss |  log_loss  | Misclassified(%) |
    +-------+----------------------------+----------------+------------+-----------+-----------+------------+------------------+
    |   1   |  LR With Class Balancing   |      100       |  0.891891  |  1.316569 |  1.28684  |  1.316569  |     0.43233      |
    |   2   | LR Without Class Balancing |      0.1       | 0.8158282  | 1.2001679 |  1.210664 |  0.41165   |    0.38533834    |
    |   3   |    Linear SVM balanced     |      0.09      |  0.99977   |  1.283506 |  1.31358  | 1.28754445 |    0.4154135     |
    +-------+----------------------------+----------------+------------+-----------+-----------+------------+------------------+
    

    vectorising via TF-IDF(n-gram (1,4)) with taken all words into consideration from gene,variation and text features

    In [91]:
    # Collecting all the genes and variations in a single list
    corpus = []
    for word in result['Gene'].values:
        corpus.append(word)
    for word in result['Variation'].values:
        corpus.append(word)
    for word in result['TEXT'].values:
        corpus.append(word)
    
    In [92]:
    len(corpus)
    
    Out[92]:
    9963
    In [93]:
    text1 = TfidfVectorizer(ngram_range=(1, 4))
    text2 = text1.fit_transform(corpus)
    text1_features = text1.get_feature_names()
    
    # Transforming the train_df['TEXT']
    train_text = text1.transform(train_df['TEXT'])
    
    # Transforming the test_df['TEXT']
    test_text = text1.transform(test_df['TEXT'])
    
    # Transforming the cv_df['TEXT']
    cv_text = text1.transform(cv_df['TEXT'])
    
    # Normalizing the train_text
    train_text = normalize(train_text,axis=0)
    
    # Normalizing the test_text
    test_text = normalize(test_text,axis=0)
    
    # Normalizing the cv_text
    cv_text = normalize(cv_text,axis=0)
    
    In [94]:
    # merging gene, variance and text features
    
    # building train, test and cross validation data sets
    # a = [[1, 2], 
    #      [3, 4]]
    # b = [[4, 5], 
    #      [6, 7]]
    # hstack(a, b) = [[1, 2, 4, 5],
    #                [ 3, 4, 6, 7]]
    
    train_gene_var_onehotCoding = hstack((train_gene_feature_onehotCoding,train_variation_feature_onehotCoding))
    test_gene_var_onehotCoding = hstack((test_gene_feature_onehotCoding,test_variation_feature_onehotCoding))
    cv_gene_var_onehotCoding = hstack((cv_gene_feature_onehotCoding,cv_variation_feature_onehotCoding))
    
    # Adding the train_text feature
    train_x_onehotCoding = hstack((train_gene_var_onehotCoding, train_text))
    train_x_onehotCoding = hstack((train_x_onehotCoding, train_text_feature_onehotCoding)).tocsr()
    train_y = np.array(list(train_df['Class']))
    
    # Adding the test_text feature
    test_x_onehotCoding = hstack((test_gene_var_onehotCoding, test_text))
    test_x_onehotCoding = hstack((test_x_onehotCoding, test_text_feature_onehotCoding)).tocsr()
    test_y = np.array(list(test_df['Class']))
    
    # Adding the cv_text feature
    cv_x_onehotCoding = hstack((cv_gene_var_onehotCoding, cv_text))
    cv_x_onehotCoding = hstack((cv_x_onehotCoding, cv_text_feature_onehotCoding)).tocsr()
    cv_y = np.array(list(cv_df['Class']))
    
    In [95]:
    print("One hot encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_onehotCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_onehotCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_onehotCoding.shape)
    
    One hot encoding features :
    (number of data points * number of features) in train data =  (2124, 19045642)
    (number of data points * number of features) in test data =  (665, 19045642)
    (number of data points * number of features) in cross validation data = (532, 19045642)
    

    Logistic Regression

    With Class balancing

    Hyper paramter tuning

    In [96]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-6, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(class_weight='balanced', alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 1e-06
    Log Loss : 1.6067758934901166
    for alpha = 1e-05
    Log Loss : 1.5911466221437751
    for alpha = 0.0001
    Log Loss : 1.5845514389138287
    for alpha = 0.001
    Log Loss : 1.5872330736047235
    for alpha = 0.01
    Log Loss : 1.4909561966949971
    for alpha = 0.1
    Log Loss : 1.2236477292063392
    for alpha = 1
    Log Loss : 1.2635131308686687
    for alpha = 10
    Log Loss : 1.30840833790557
    for alpha = 100
    Log Loss : 1.3235352222075327
    
    For values of best alpha =  0.1 The train log loss is: 0.7244437263724932
    For values of best alpha =  0.1 The cross validation log loss is: 1.2236477292063392
    For values of best alpha =  0.1 The test log loss is: 1.2429892277882926
    
    In [97]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [.01 * x for x in range(1, 20)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(class_weight='balanced', alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 0.01
    Log Loss : 1.4909561966949971
    for alpha = 0.02
    Log Loss : 1.3969281805373277
    for alpha = 0.03
    Log Loss : 1.3362211291025183
    for alpha = 0.04
    Log Loss : 1.2963728252226645
    for alpha = 0.05
    Log Loss : 1.2660294505156182
    for alpha = 0.06
    Log Loss : 1.2510563870784277
    for alpha = 0.07
    Log Loss : 1.2397551240854303
    for alpha = 0.08
    Log Loss : 1.2334579076964431
    for alpha = 0.09
    Log Loss : 1.225855616969996
    for alpha = 0.1
    Log Loss : 1.2236477292063392
    for alpha = 0.11
    Log Loss : 1.220426562581412
    for alpha = 0.12
    Log Loss : 1.2182477432967538
    for alpha = 0.13
    Log Loss : 1.2148922637927104
    for alpha = 0.14
    Log Loss : 1.215922372973232
    for alpha = 0.15
    Log Loss : 1.2159160159796198
    for alpha = 0.16
    Log Loss : 1.2164306226532715
    for alpha = 0.17
    Log Loss : 1.217655024249913
    for alpha = 0.18
    Log Loss : 1.2183711359629399
    for alpha = 0.19
    Log Loss : 1.219272506813675
    
    For values of best alpha =  0.13 The train log loss is: 0.683339758424691
    For values of best alpha =  0.13 The cross validation log loss is: 1.2148922637927104
    For values of best alpha =  0.13 The test log loss is: 1.2337167131146358
    
    In [98]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    Log loss : 1.2148922637927104
    Number of mis-classified points : 0.41353383458646614
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Without Class balancing

    Hyper paramter tuning
    In [99]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-5, 1)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 1e-05
    Log Loss : 1.5451885708264728
    for alpha = 0.0001
    Log Loss : 1.5413316076742016
    for alpha = 0.001
    Log Loss : 1.5569593730890259
    for alpha = 0.01
    Log Loss : 1.461980066650048
    for alpha = 0.1
    Log Loss : 1.2218897099115962
    for alpha = 1
    Log Loss : 1.2312559622227899
    
    For values of best alpha =  0.1 The train log loss is: 0.7071762467421758
    For values of best alpha =  0.1 The cross validation log loss is: 1.2218897099115962
    For values of best alpha =  0.1 The test log loss is: 1.2328727466811948
    

    Testing model with best hyper parameters

    In [100]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    Log loss : 1.2218897099115962
    Number of mis-classified points : 0.40601503759398494
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Linear Support Vector Machines

    Hyper paramter tuning

    In [101]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-5, 3)]
    cv_log_error_array = []
    for i in alpha:
        print("for C =", i)
    #     clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
        clf = SGDClassifier( class_weight='balanced', alpha=i, penalty='l2', loss='hinge', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    # clf = SVC(C=i,kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='hinge', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for C = 1e-05
    Log Loss : 1.584787495814163
    for C = 0.0001
    Log Loss : 1.586615652143332
    for C = 0.001
    Log Loss : 1.5680607951551926
    for C = 0.01
    Log Loss : 1.53295755981749
    for C = 0.1
    Log Loss : 1.340026197418921
    for C = 1
    Log Loss : 1.2646770843495638
    for C = 10
    Log Loss : 1.3118042946221815
    for C = 100
    Log Loss : 1.322524113320362
    
    For values of best alpha =  1 The train log loss is: 0.6821351235377398
    For values of best alpha =  1 The cross validation log loss is: 1.2646770843495638
    For values of best alpha =  1 The test log loss is: 1.2566752294712633
    

    Testing model with best hyper parameters

    In [105]:
    # read more about support vector machines with linear kernals here http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html
    
    # --------------------------------
    # default parameters 
    # SVC(C=1.0, kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, shrinking=True, probability=False, tol=0.001, 
    # cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=’ovr’, random_state=None)
    
    # Some of methods of SVM()
    # fit(X, y, [sample_weight])	Fit the SVM model according to the given training data.
    # predict(X)	Perform classification on samples in X.
    # --------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/mathematical-derivation-copy-8/
    # --------------------------------
    
    
    # clf = SVC(C=alpha[best_alpha],kernel='linear',probability=True, class_weight='balanced')
    clf = SGDClassifier(alpha=1, penalty='l2', loss='hinge', random_state=42,class_weight='balanced')
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y,cv_x_onehotCoding,cv_y, clf)
    
    Log loss : 1.2646770843495638
    Number of mis-classified points : 0.4041353383458647
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    
    In [118]:
    # Creating table using PrettyTable library
    from prettytable import PrettyTable
    
    # Names of models
    names =['LR With Class Balancing','LR Without Class Balancing','Linear SVM balanced']
    
    # Training loss
    train_loss = [0.72444, 0.70717,0.6821  ] 
    
    # Cross Validation loss
    cv_loss = [1.2236, 1.2218897,1.264677 ]
    # Test loss
    test_loss = [ 1.2429892,1.232872,1.256675 ]
    
    log_loss=[1.214892 ,1.221889,1.26467  ]
    
    alpha=[0.13, 0.1 , 0.09 ]
    
    # Percentage Misclassified points
    misclassified =[0.4135,0.40601,0.4041]
    
    numbering = [1,2,3]
    
    # Initializing prettytable
    ptable = PrettyTable()
    
    # Adding columns
    ptable.add_column("S.NO.",numbering)
    ptable.add_column("MODEL",names)
    ptable.add_column("hyperparameter",alpha)
    ptable.add_column("Train_loss",train_loss)
    ptable.add_column("CV_loss",cv_loss)
    ptable.add_column("Test_loss",test_loss)
    ptable.add_column("log_loss",log_loss)
    ptable.add_column("Misclassified(%)",misclassified)
    
    # Printing the Table
    print(ptable)
    
    +-------+----------------------------+----------------+------------+-----------+-----------+----------+------------------+
    | S.NO. |           MODEL            | hyperparameter | Train_loss |  CV_loss  | Test_loss | log_loss | Misclassified(%) |
    +-------+----------------------------+----------------+------------+-----------+-----------+----------+------------------+
    |   1   |  LR With Class Balancing   |      0.13      |  0.72444   |   1.2236  | 1.2429892 | 1.214892 |      0.4135      |
    |   2   | LR Without Class Balancing |      0.1       |  0.70717   | 1.2218897 |  1.232872 | 1.221889 |     0.40601      |
    |   3   |    Linear SVM balanced     |      0.09      |   0.6821   |  1.264677 |  1.256675 | 1.26467  |      0.4041      |
    +-------+----------------------------+----------------+------------+-----------+-----------+----------+------------------+
    

    TASK:4.3---->>>

    Tf-IDF(n-gram(1,4)) with taken all words into consideration from gene,variation and text features + (Vectorise our text via spaCy NLP en_core_web_sm)

    In [106]:
    FEATUREtfidfw2v=pd.read_csv("FEATUREtfidfw2v.csv",encoding='latin-1')
    FEATUREtfidfw2vTEST=pd.read_csv("FEATUREtfidfw2vTEST.csv",encoding='latin-1')
    FEATUREtfidfw2vCV=pd.read_csv("FEATUREtfidfw2vCV.csv",encoding='latin-1')
    
    In [107]:
    df1 = FEATUREtfidfw2v.drop(['q1_feats_m','ID','Gene','Variation','Class','TEXT'],axis=1)
    df2 = FEATUREtfidfw2vTEST.drop(['q1_feats_m','ID','Gene','Variation','Class','TEXT'],axis=1)
    df3 = FEATUREtfidfw2vCV.drop(['q1_feats_m','ID','Gene','Variation','Class','TEXT'],axis=1)
    
    In [108]:
    train_x_onehotCoding = hstack((train_x_onehotCoding , df1)).tocsr()
    
    
    test_x_onehotCoding = hstack((test_x_onehotCoding, df2)).tocsr()
    
    cv_x_onehotCoding = hstack((cv_x_onehotCoding, df3)).tocsr()
    
    cv_x_onehotCoding = normalize(cv_x_onehotCoding, axis=0)
    test_x_onehotCoding = normalize(test_x_onehotCoding, axis=0)
    train_x_onehotCoding = normalize(train_x_onehotCoding, axis=0)
    
    In [109]:
    print("One hot encoding features :")
    print("(number of data points * number of features) in train data = ", train_x_onehotCoding.shape)
    print("(number of data points * number of features) in test data = ", test_x_onehotCoding.shape)
    print("(number of data points * number of features) in cross validation data =", cv_x_onehotCoding.shape)
    
    One hot encoding features :
    (number of data points * number of features) in train data =  (2124, 19045739)
    (number of data points * number of features) in test data =  (665, 19045739)
    (number of data points * number of features) in cross validation data = (532, 19045739)
    

    Logistic Regression

    With Class balancing

    Hyper paramter tuning

    In [110]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-3, 2)]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(class_weight='balanced', alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        # to avoid rounding error while multiplying probabilites we use log-probability estimates
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 0.001
    Log Loss : 1.5836700191438835
    for alpha = 0.01
    Log Loss : 1.486870871673939
    for alpha = 0.1
    Log Loss : 1.2214635714129198
    for alpha = 1
    Log Loss : 1.264615970571102
    for alpha = 10
    Log Loss : 1.30934349807457
    
    For values of best alpha =  0.1 The train log loss is: 0.7236393527176883
    For values of best alpha =  0.1 The cross validation log loss is: 1.2214635714129198
    For values of best alpha =  0.1 The test log loss is: 1.2436389470463154
    

    Testing model with best hyper parameters

    In [111]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    clf = SGDClassifier(class_weight='balanced', alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    Log loss : 1.2214635714129198
    Number of mis-classified points : 0.4191729323308271
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Logistic Regression

    Without Class balancing

    Hyper paramter tuning

    In [112]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: https://www.appliedaicourse.com/course/applied-ai-course-online/lessons/geometric-intuition-1/
    #------------------------------
    
    
    
    # find more about CalibratedClassifierCV here at http://scikit-learn.org/stable/modules/generated/sklearn.calibration.CalibratedClassifierCV.html
    # ----------------------------
    # default paramters
    # sklearn.calibration.CalibratedClassifierCV(base_estimator=None, method=’sigmoid’, cv=3)
    #
    # some of the methods of CalibratedClassifierCV()
    # fit(X, y[, sample_weight])	Fit the calibrated model
    # get_params([deep])	Get parameters for this estimator.
    # predict(X)	Predict the target of new samples.
    # predict_proba(X)	Posterior probabilities of classification
    #-------------------------------------
    # video link:
    #-------------------------------------
    
    alpha = [10 ** x for x in range(-3,2 )]
    cv_log_error_array = []
    for i in alpha:
        print("for alpha =", i)
        clf = SGDClassifier(alpha=i, penalty='l2', loss='log', random_state=42)
        clf.fit(train_x_onehotCoding, train_y)
        sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
        sig_clf.fit(train_x_onehotCoding, train_y)
        sig_clf_probs = sig_clf.predict_proba(cv_x_onehotCoding)
        cv_log_error_array.append(log_loss(cv_y, sig_clf_probs, labels=clf.classes_, eps=1e-15))
        print("Log Loss :",log_loss(cv_y, sig_clf_probs)) 
    
    fig, ax = plt.subplots()
    ax.plot(alpha, cv_log_error_array,c='g')
    for i, txt in enumerate(np.round(cv_log_error_array,3)):
        ax.annotate((alpha[i],str(txt)), (alpha[i],cv_log_error_array[i]))
    plt.grid()
    plt.title("Cross Validation Error for each alpha")
    plt.xlabel("Alpha i's")
    plt.ylabel("Error measure")
    plt.show()
    
    
    best_alpha = np.argmin(cv_log_error_array)
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    clf.fit(train_x_onehotCoding, train_y)
    sig_clf = CalibratedClassifierCV(clf, method="sigmoid")
    sig_clf.fit(train_x_onehotCoding, train_y)
    
    predict_y = sig_clf.predict_proba(train_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The train log loss is:",log_loss(y_train, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(cv_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The cross validation log loss is:",log_loss(y_cv, predict_y, labels=clf.classes_, eps=1e-15))
    predict_y = sig_clf.predict_proba(test_x_onehotCoding)
    print('For values of best alpha = ', alpha[best_alpha], "The test log loss is:",log_loss(y_test, predict_y, labels=clf.classes_, eps=1e-15))
    
    for alpha = 0.001
    Log Loss : 1.5626148249681933
    for alpha = 0.01
    Log Loss : 1.4552337116303742
    for alpha = 0.1
    Log Loss : 1.2220511179349027
    for alpha = 1
    Log Loss : 1.2322105743032936
    for alpha = 10
    Log Loss : 1.2704423133015814
    
    For values of best alpha =  0.1 The train log loss is: 0.7077004612434604
    For values of best alpha =  0.1 The cross validation log loss is: 1.2220511179349027
    For values of best alpha =  0.1 The test log loss is: 1.2286362725378064
    

    Testing model with best hyper parameters

    In [113]:
    # read more about SGDClassifier() at http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.SGDClassifier.html
    # ------------------------------
    # default parameters
    # SGDClassifier(loss=’hinge’, penalty=’l2’, alpha=0.0001, l1_ratio=0.15, fit_intercept=True, max_iter=None, tol=None, 
    # shuffle=True, verbose=0, epsilon=0.1, n_jobs=1, random_state=None, learning_rate=’optimal’, eta0=0.0, power_t=0.5, 
    # class_weight=None, warm_start=False, average=False, n_iter=None)
    
    # some of methods
    # fit(X, y[, coef_init, intercept_init, …])	Fit linear model with Stochastic Gradient Descent.
    # predict(X)	Predict class labels for samples in X.
    
    #-------------------------------
    # video link: 
    #------------------------------
    
    clf = SGDClassifier(alpha=alpha[best_alpha], penalty='l2', loss='log', random_state=42)
    predict_and_plot_confusion_matrix(train_x_onehotCoding, train_y, cv_x_onehotCoding, cv_y, clf)
    
    Log loss : 1.2220511179349027
    Number of mis-classified points : 0.40601503759398494
    -------------------- Confusion matrix --------------------
    
    -------------------- Precision matrix (Columm Sum=1) --------------------
    
    -------------------- Recall matrix (Row sum=1) --------------------
    

    Linear Support Vector Machines

    Hyper paramter tuning

    In [121]:
    train_x_onehotCoding
    
    Out[121]:
    <2124x19045739 sparse matrix of type '<class 'numpy.float64'>'
    	with 65243888 stored elements in Compressed Sparse Column format>
    In [124]:
    # Creating table using PrettyTable library
    from prettytable import PrettyTable
    
    # Names of models
    names =['LR With Class Balancing','LR Without Class imBalancing']
    
    # Training loss
    train_loss = [0.72444, 0.70770 ] 
    
    # Cross Validation loss
    cv_loss = [1.2214, 1.2220 ]
    # Test loss
    test_loss = [ 1.24363,1.22863]
    
    log_loss=[1.22146 ,1.22205 ]
    
    alpha=[0.1, 0.1  ]
    
    # Percentage Misclassified points
    misclassified =[0.4191,0.40601]
    
    numbering = [1,2]
    
    # Initializing prettytable
    ptable = PrettyTable()
    
    # Adding columns
    ptable.add_column("S.NO.",numbering)
    ptable.add_column("MODEL",names)
    ptable.add_column("hyperparameter",alpha)
    ptable.add_column("Train_loss",train_loss)
    ptable.add_column("CV_loss",cv_loss)
    ptable.add_column("Test_loss",test_loss)
    ptable.add_column("log_loss",log_loss)
    ptable.add_column("Misclassified(%)",misclassified)
    
    # Printing the Table
    print(ptable)
    
    +-------+------------------------------+----------------+------------+---------+-----------+----------+------------------+
    | S.NO. |            MODEL             | hyperparameter | Train_loss | CV_loss | Test_loss | log_loss | Misclassified(%) |
    +-------+------------------------------+----------------+------------+---------+-----------+----------+------------------+
    |   1   |   LR With Class Balancing    |      0.1       |  0.72444   |  1.2214 |  1.24363  | 1.22146  |      0.4191      |
    |   2   | LR Without Class imBalancing |      0.1       |   0.7077   |  1.222  |  1.22863  | 1.22205  |     0.40601      |
    +-------+------------------------------+----------------+------------+---------+-----------+----------+------------------+
    

    ------------------------------------------STEPS FOLLOWED-----------------------------------------

    1--->>> Exploratory Data Analysis.

    2--->>> Reading Gene and Variation Data.

    3--->>> Preprocessing of text stop_words nlp.

    4--->>> merging both gene_variations and text data based on ID.

    5--->>> Test, Train and Cross Validation Split Split the dataset randomly into three parts train, cross validation and test with 64%,16%, 20% of data respectively

    6--->>> Prediction using a 'Random' Model

    7--->>> Univariate Analysis Gene,Variation AND TEXT FeatureS What type of featureS THESE ARE How many categories are there and How they are distributed.

    8--->>> How to featurize this Gene feature AND Variation feature:- a: One hot Encoding. b: Response coding.

    9--->>> Test each gene How good is this gene feature in predicting y_i via l.r.

    10--->>> Try out various different algorithms with different feature engineetring on different vectorised data.

    11--->>> DONE 4 TASKS AS FOLLOWS:-

    1--->>> Replace CountVectorizer() by TfidfVectorizer() in all the one hot encoding section of gene , variation and text features.

    2--->>> Replace TfidfVectorizer() by TfidfVectorizer(max_features=1000) in the one hot encoding section of text feature to get top 1000 words based of tf-idf values.

    3--->>> Replace CountVectorizer() by CountVectorizer(ngram_range=(1,2)) in all the one hot encoding section of gene , variation and text features to get unigrams and bigrams .

    Then Apply Logistic Regression.

    4--->>> Trying different feature engineering techniques discussed in the course to reduce the CV and test log-loss to a value less as possible i.e 1 or near to 1.

    NOTE: HERE WE ARE TRYING DIFFERENT ENGINEERING HACKS:

    1--> We also vectorise via TF-IDF with taken all words into consideration from gene,variation and text feature.

    2--> We also vectorise our text via spaCy NLP en_core_web_sm and concat it with all above feature to improve our results.

    3--> Also done all above task in 4th task with tf-idf(ngram(1,4))

    CONCLUSIONS:-

    AS WE APPLY VARIOUS TECHNIQUES ,FEATURE ENGINEERING AND ALGORITHMS OUR LOG LOSS TENDS TO NEAR 1 IN APPLYING VARIOUS TRICKS(HACKS).

    WE CAN IMPROVE OUR RESULTS WITH DOMAIN FEATURE ENDINEERING MADE BY DOMAIN EXPERTS.

    WE CAN ALSO APPLY DEEP LEARNING TO AUTOMATIC FEATURIZATION .

    HERE WE ARE HAVING LOW COMPUTATION POWER SYSTEM SO WE CANT APPLY VARIOUS OTHER POWERFUL TECHNIQUES LIKE DEEP LEARNING AND OTHER POWERFUL NLP TECHNIQUES WHICH TAKES LOTS OF COMPUTATION VIA WHICH WE CAN IMPROVE OUR SOLUTIONS AND PERFORMANCE MARTRIC.